Avui, a les redaccions dels mitjans catalans ja preguntem a la intel·ligència artificial coses com: què és noticiable?, quin títol triar?, quina forma ha de tenir el contingut?, quina informació cal destacar? Totes aquestes formen part del nucli de la funció editorial del periodisme. I és que a les redaccions dels principals mitjans de comunicació de Catalunya, els algoritmes intervenen en tasques de tota la cadena de valor: des de la identificació de temes noticiables, passant per la recopilació de contingut entre grans bases de dades per nodrir la informació, la generació automatitzada de textos, d’infografies, transcripcions o bots informatius, fins a la distribució del contingut.
Davant d’això, cal preguntar-se: és la intel·ligència artificial una amenaça per al periodisme de qualitat? O, per contra, pot suposar una oportunitat per fer un millor producte informatiu? La intel·ligència artificial, com qualsevol altra tecnologia, és una eina, i com a tal, la seva utilitat i els seus efectes dependran de com la fem servir. Governar els algoritmes en l’àmbit del periodisme passarà per posar-los al servei dels grans principis de la professió, atès que la seva aplicació és la millor garantia de la qualitat informativa.
Amb aquesta finalitat, el Consell de la Informació de Catalunya ha publicat l’estudi Algoritmes a les redaccions: reptes i recomanacions per dotar la Intel·ligència Artificial dels valors ètics del periodisme. Un treball que ha tingut com a principals objectius promoure una reflexió conjunta entre el sector sobre com adoptar les tecnologies exponencials a les redaccions i així proporcionar eines al periodisme per liderar la tecnoètica de la comunicació.
L’estudi parteix d’una reflexió crítica respecte del paper de la mediació algorítmica per part de les plataformes i els seus efectes en l’ecosistema informatiu. Des que van emergir, durant el principi dels anys 2000, moltes persones vam veure l’arribada amb optimisme: ens van posar a l’abast més eines de creació de continguts, més canals per ser distribuïts i, per tant, més veus podrien ser escoltades. Fins i tot se’ls va arribar a atribuir un paper fonamental a les revolucions àrabs o al 15-m a Espanya, entre altres esdeveniments d’àmplia rellevància mundial.
A mesura que ha anat passant el temps, no obstant això, hem comprovat que no tot han estat beneficis: hem après que basen el seu model de negoci en una lògica extractivista de les dades que amenaça la nostra privacitat i, per tant, les nostres llibertats; hem comprovat que la desinformació prolifera sense control pel nostre ecosistema informatiu i que, molt al contrari del que aparentaven al principi, promouen un consum hiperpersonalitzat de la informació que erosiona la nostra visió comunitària.
És molt difícil de dir si avui som més en bombolles d’informació que abans, quan només disposàvem dels mitjans de comunicació tradicionals, quan ens compràvem el diari que més sintonitzava amb la nostra visió del món, però sí que existeix un cert consens sobre el fet que no tots els efectes de l’arribada de les plataformes digitals han estat positius.
En cap cas l’informe planteja tot això com un problema tecnològic. La intel·ligència artificial, com dèiem, és una eina i com a tal els seus efectes estan condicionats a l’ús que en fem. El problema fonamental en l’arrel de les conseqüències de la gestió algorítmica de la informació és optimitzar aquesta tecnologia amb l’únic propòsit d’aconseguir finalitats comercials. És a dir, una gestió tecnològica sense tenir en compte uns valors ètics que, a priori, no venen i, per tant, podrien disminuir els indicadors de performance (resultats en base a mètriques associades a objectius purament de negoci) pels quals es guien, en termes generals, les grans tecnològiques.
En aquest context, l’estudi considera que al periodisme li convindria adoptar una postura, no només davant dels efectes de la gestió computacional de la comunicació, sinó també respecte a la creixent automatització dins la societat, mitjançant decisions algorítmiques cada cop més presents en sectors tan determinants com la salut, la justícia o l’educació.
Avui els algorismes participen en decisions com ara el diagnòstic mèdic, el càlcul de l’índex de reincidència de presos o la concessió d’ajudes socials. El mateix Servicio Público de Empleo fa servir algoritmes per decidir qui té dret a l’atur. La computació de qüestions tan sensibles comporta riscs derivats de l’ús de sistemes mal dissenyats o de dades de qualitat insuficient que provoquen biaixos algorítmics, de manca de supervisió o de transparència. A més, des d’una perspectiva més àmplia, cal considerar que les promeses tecnològiques de productivitat comporten una deshumanització en els processos als quals paga la pena d’estar atents, ja que fins ara no han parat de créixer.
Si el periodisme ha de vigilar aquests algoritmes o, més ben dit, els qui els gestionen, en coherència haurà d’estar en condicions d’usar la intel·ligència artificial d’una manera exemplar. Posar-la al servei de la missió de servei públic, dotar-la de valors i demostrar que és capaç de gestionar-la com no ho fan altres, que es limiten a optimitzar-la amb finalitats purament comercials i, per tant, sense valors.
Per abordar la complexitat en moments molt inicials d’aquesta integració de la intel·ligència artificial a les rutines productives dels mitjans, l’informe identifica aquelles eines o pràctiques que empren intel·ligència artificial que generen més preocupacions ètiques entre el sector. Després ofereix una reflexió sobre els dilemes que genera cada tema clau i analitza quins valors de l’ètica periodística afecta. Finalment, el CIC ha elaborat un decàleg de recomanacions per a l’ús ètic de la intel·ligència artificial en els mitjans de comunicació.
L’informe compta amb un comitè expert de primer nivell, així com amb una àmplia participació de professionals del sector. A més, ha comptat amb la col·laboració dels principals mitjans catalans de manera que han fet possible confrontar les reflexions teòriques amb la pràctica del dia a dia en els mitjans.
Algunes de les principals preocupacions que es detecten entre els professionals del sector tenen a veure amb el temor a la pèrdua de qualitat del producte informatiu, a generar desinformació, biaixos algorítmics, a contribuir a generar càmeres d’eco i polarització o qüestions relacionades amb la privadesa.
Un cop identificats els temes clau i els dilemes, s’hi analitzen quins grans principis de l’ètica periodística afecten, seguint la mateixa metodologia que el Col·legi de Periodistes de Catalunya va fer servir en l’actualització del codi deontològic el 2016 i que va consistir a confrontar les noves pràctiques amb els valors fonamentals de l’ètica periodística –veracitat, justícia, llibertat i responsabilitat.
En aquest exercici es confirma que les aplicacions a priori més controvertides col·lideixen amb tots aquests. A més, l’informe identifica que alguns dels principis de la professió que figuren en els codis deontològics es resignifiquen i adquireixen més rellevància amb l’adopció de la intel·ligència artificial. Aquests són els principis de transparència i de privadesa.
Després d’examinar les enquestes, les entrevistes i les reflexions sorgides en les trobades, l’estudi proposa set temes clau en què aprofundir per després elaborar les recomanacions per a l’ús ètic de la intel·ligència artificial als mitjans del comitè expert en ètica del CIC.
Les qüestions fonamentals que desenvolupa l’estudi són les següents: contingut automatitzat amb criteri editorial, personalització que conviu amb la diversitat i promou la salut de l’esfera pública, supervisió i qualitat de les dades per evitar biaixos, preservar la privadesa dels usuaris amb responsabilitat, com el periodisme de qualitat passa per posar en valor el factor humà, el finançament de les plataformes i la independència informativa i, finalment, la intel·ligència artificial per enfortir els valors del periodisme.
L’informe té caràcter divulgatiu i està dirigit a un públic no necessàriament especialitzat en tecnologia. A continuació oferim un resum d’alguns temes clau.
Tant la transparència com la supervisió humana són fonamentals per evitar i mitigar possibles errors o biaixos en la generació automatitzada de contingut. Abans, però, caldrà identificar quin tipus d’automatització serà imprescindible comunicar, ja que aquesta s’utilitza en molts processos, i no és el mateix fer-la servir per a una transcripció de veu a text que a l’hora de generar tot el text d’una notícia. Segurament serà més rellevant comunicar el segon cas que el primer.
També en el context del contingut automatitzat i en línia amb la legislació europea, resultarà fonamental deixar molt clar a l’usuari que parla amb una màquina en l’ús de bots informatius. El principi de transparència, que ja era present en el codi deontològic, es resignifica i adquireix un gran protagonisme amb l’arribada de la intel·ligència artificial a les redaccions.
A més d’afirmar el compromís periodístic amb la veritat, la transparència constitueix la protecció més eficient davant de possibles errors. L’explicabilitat i l’evidència d’on surt qualsevol tipus d’informació per actuar de manera responsable.
La personalització és una gran eina a l’hora de millorar l’experiència de l’usuari. Tanmateix, convé considerar certs aspectes a l’hora d’incorporar-ne l’ús als mitjans de comunicació, ja que una personalització extrema xocaria amb la missió del periodisme d’incentivar la visió comunitària sobre les qüestions d’interès públic. Aquí també, la supervisió dels sistemes en totes les fases de creació i implementació, així com la transparència, resultarà fonamental per evitar biaixos que podrien excloure grups minoritaris.
Altres qüestions susceptibles de col·lidir amb els principis ètics del periodisme així com amb la legislació que prepara la UE, són els sistemes que poden arribar a manipular el comportament de les persones a través del disseny persuasiu que sovint fan servir motors de recomanació en altres plataformes. Caldrà prestar una atenció especial quan aquests sistemes puguin ser utilitzats per persones amb vulnerabilitats psicològiques o menors d’edat.
Una de les preocupacions més grans sobre els riscs de la intel·ligència artificial en qualsevol àmbit, inclòs el de la comunicació, són els biaixos que poden contenir els resultats dels processos per als quals s’ha optimitzat un algoritme.
No hi ha automatització sense dades, i perquè aquests biaixos no es produeixin serà imprescindible entrenar els sistemes amb dades representatives del problema que es vol solucionar, és a dir, convindrà garantir que l’algoritme disposi de la informació necessària per executar els procediments per a les finalitats que s’ha optimitzat. En aquest punt es fa necessari, de nou, apel·lar a la transparència, i estar en condicions de poder explicar, a priori o a posteriori, per què el nostre sistema ha arribat a un determinat resultat.
El periodisme haurà de prendre posició respecte del problema d’erosió de la privadesa que s’està convertint en una amenaça per a les llibertats de la ciutadania i que ha estat causada precisament per l’extractivisme de les dades personals que han originat les plataformes de comunicació algorítmica.
El marc legal de què disposem a la UE és l’eina més adient a l’hora d’establir les millors pràctiques pel que fa al tractament de dades personals dels usuaris dels mitjans. En concret, el Reglament general de protecció de dades imposa obligacions directes. Segons aquesta normativa europea, una empresa pot tractar dades personals en condicions de justícia transparència, tenir una finalitat especificada i legítima, a més de limitar-se a les dades necessàries per complir amb la finalitat esmentada.
Convé reflexionar sobre com es comunica des dels mitjans als usuaris l’ús que faran de les dades personals. En aquest cas, la transparència passa pel com: fugir de les comunicacions mitjançant clàusules i lletres petites. Els consentiments tradicionalment han estat escrites per advocats i dirigits a advocats. L’estudi proposa aprofitar la fortalesa de què disposen els professionals de la comunicació per expressar d’una manera breu, clara i didàctica la classe de tractament de les dades dels usuaris de manera que els posi en el centre. És a dir, d’una manera sintètica, facilitar que l’usuari comprengui fins a quin punt està exposat.
Fa uns anys, no podíem imaginar el grau de delegació a què estem arribant quant a la intel·ligència artificial. En aquest context, sorgeixen dues grans qüestions: una és de caire filosòfic i l’altra és de tipus estratègic. La primera respon a la pregunta sobre què és el que ens fa humans i, concretament, quines són les potencialitats humanes. Des de la perspectiva de l’ètica periodística, la resposta és clara: les màquines no tenen ètica, i els algoritmes en realitat no poden decidir res, perquè no poden entendre què significa actuar per preservar la dignitat humana i perquè una màquina no pot assumir cap responsabilitat.
D’altra banda, emergeix la qüestió estratègica. Tal com dèiem, una de les principals preocupacions del sector respecte a l’adopció de la intel·ligència artificial en els mitjans és que es produeixi una eventual pèrdua de qualitat del producte informatiu. Aquesta percepció contradiu un discurs predominant que augura que la productivitat que suposarà l’automatització es traduirà en temps disponible perquè els periodistes puguin dedicar-se a tasques més creatives o que aportin més valor.
En aquest punt, els mitjans hauran de prendre decisions que implicaran reorganitzar processos i tasques, i per tal que els canvis repercuteixin en el producte de manera qualitativa caldrà mantenir un bon equilibri estalvi-inversió que consideri com l’eficiència que pot proporcionar l’automatització dona lloc a un producte de qualitat, un factor determinant per assolir objectius comercials.
Per aconseguir extreure el millor de la intel·ligència artificial, però, haurà d’existir en els mitjans una aposta clara per la innovació i invertir recursos en l’experimentació, així com en la formació. Els periodistes necessiten uns coneixements mínims per poder participar en la presa de decisions relacionades amb la incorporació de les tecnologies exponencials, així com per a la correcta gestió de proveïdors d’eines. En cap cas caldrà que el periodista aprengui a programar, però sí que li convé, explica l’estudi, conèixer qüestions fonamentals. Per exemple, desenvolupar el pensament computacional o conèixer conceptes bàsics com la diferència entre les diferents tecnologies algorítmiques a les quals agrupem sota el concepte intel·ligència artificial: els algoritmes simples, l’aprenentatge automàtic o l’aprenentatge profund.
Disposar d’aquests coneixements bàsics ajudarà també a millorar la comunicació amb els enginyers, uns perfils que agafen un clar protagonisme en el producte informatiu. En aquest sentit, l’informe identifica també un consens sobre la necessitat de formació en ètica periodística dirigida a aquests professionals que provenen d’àmbits tècnics.
Finalment, l’informe proposa també la necessitat d’avaluar com aquesta tecnologia pot ajudar a desenvolupar noves eines per enfortir els valors periodístics en el producte informatiu. Un exemple d’això són les eines d’intel·ligència artificial per donar suport a la verificació de desinformació, així com altres per detectar biaixos humans en el producte informatiu.
En definitiva, cal que el periodisme estableixi unes bases sòlides que es puguin escalar i siguin sostenibles en el futur. Integrar la intel·ligència artificial als mitjans de comunicació que aposten per la qualitat informativa passa per governar-la i implica posar-la al servei de la veritat, la justícia, la llibertat i responsabilitat, els valors fonamentals que regeixen la professió periodística.
Col·legi de Periodistes de Catalunya 2024
Rambla de Catalunya 10, pral. 08007 Barcelona.
Tel. 93 317 19 20 contacte@periodistes.cat
Encara no hi ha comentaris, pots ser el primer
Deixa el teu comentari