Hola!
Circumstancialment he recollit alguns dels conflictes ètics i socials que generen les intel·ligències artificials (IAs) en un petit text i les seves referències. Ja que he fet la feina, aprofito per compartir-ho per aquí i així ho podem discutir i completar col·lectivament. Tinc previst afegir alguns apartats més (com per exemple la precarització de les ocupacions que les IA substitueixen o el possible impacte en l’aprenentatge que l’abús de les IAs poden generar).
Conflictes ètics de la Intel·ligència Artifical
La Intel·ligència Artificial (IA) és un conjunt heterogeni d’eines que estan de moda, especialment després de l’aparició de les de tipus generatiu (ex. ChatGPT). La IA ja fa temps que s’utilitza en diversos camps i és una eina potent, però a la vegada el seu procés genera conflictes ètics que cal ser-ne consicents per a fer un ús just d’aquesta eina.
Com qualsevol producte o eina, sigui un tomàquet o una peça de roba, ens hem de preguntar quines relacions humanes i amb el territori s’estableixen i si són justes.
Energia i Impacte Ambiental
L’entrenament de models per a les IA tenen uns requeriments energètics enormes i en menor grau, la infraestructura per a oferir el servei en línia també en té. Aquests requeriments i els que es preveuen en el creixement capitalista en el què vivim fan que les grans tecnològiques Microsoft [1-3], Google [4] o Amazon [5] estigui planificant l’ús d’energia nuclear per a alimentar les seves IAs.
En aquest sentit, és interessant observar que l’ús de les IAs generatives com ChatGPT tenen un cost molt major (de fins a 30 vegades superior) que una IA especialitzada per a realitzar una tasca [6]. D’aquesta manera, un ús racional de les IAs permetria reduir-ne el cost energètic.
És especialment preocupant l’enorme consum d’aigua per part dels centres de dades necessaris en aquesta indústria en un context de sequera creixent pel canvi climàtic [7].
Copyright
El contingut que s’ha utilitzat per a entrenar aquestes IAs gegants també està ple d’ombres i múltiples denúncies han assenyalat l’ús no autoritzat de material llicenciat. Des de portals de fotografia d’estoc com Getty [8], diaris [9-10], col·lectius d’artistes [11] o programadors de software amb codis a Github [12].
És molt pervers l’ús fraudulent d’un contingut que pot contribuir a precaritzar aquestes mateixes creadores (especialment les autònomes o als marges). Una cosa és apropiar-se de la cultura per a fer-la lliure i popular i l’altra és fer-ho per a enriquir-se.
Moderatores de l’entrenament dels models de les IA
També té importants implicacions ètiques l’externalització que fan les grans tecnològiques de la moderació i classificació feta per humans per tal d’entrenar les IAs. Ens venen que són súperintel·ligents, però per a entrenar-les cal molta participació humana per a classificar correctament les dades d’entrenament.
Com a moltes altres indústries, aquesta tasca poc qualificada i molt repetitiva, alienant i en alguns casos amb gran impacte psicològic, s’externalitza a països del Sud global com Kènia o Filipines i es subcontracten empreses en que les condicions de les seves treballadores són de precarietat. [13-15]
Biaixos de les IAs
Finalment, un dels problemes de la implementació de les IAs és l’aura d’objectivilitat que sovint acompanya la tecnologia. S’utilitza aquesta pretesa neutralitat per a deixar en mans d’algoritmes decisions que poden afectar a molta gent. Tanmateix nombrosos estudis documenten que les IAs tenen biaixos (com per exemple de gènere o racials), ja que incorporen aquells que són presents en qui dissenya els algoritmes i en les dades que s’utilitzen per a entrenar els models. I un dels problemes és que la responsabilitat davant d’una injustícia queda molt més etèrea i diluïda quan qui ha près la decisió és un algoritme i no una persona. [16-20]
- https://www.nytimes.com/2024/10/16/business/energy-environment/amazon-google-microsoft-nuclear-energy.html
- Microsoft necesita una cantidad descomunal de energía para sus servidores de IA. Su solución: centrales nucleares
- Accelerating the Next Wave of Nuclear to Power AI Innovation - Meta Sustainability
- Google turns to nuclear to power AI data centres
- Nuclear power for AI: what it will take to reopen Three Mile Island safely
- Crear una sola imagen con inteligencia artificial consume tanta energía como cargar un móvil
- Si la inteligencia artificial bebe tanta agua, ¿cómo brotan sus centros de datos en la España seca?
- Generative AI in the courts - Getty Images v Stability AI
- https://www.nytimes.com/2024/04/30/business/media/newspapers-sued-microsoft-openai.html
- Eight US newspapers sue OpenAI and Microsoft for copyright infringement | ChatGPT | The Guardian
- Artists’ lawsuit against Stability AI and Midjourney gets more punch - The Verge
- Demandan a Microsoft por violar licencias con GitHub Copilot
- ‘It’s destroyed me completely’: Kenyan moderators decry toll of training of AI models | Artificial intelligence (AI) | The Guardian
- https://www.washingtonpost.com/world/2023/08/28/scale-ai-remotasks-philippines-artificial-intelligence/
- https://sustain.algorithmwatch.org/en/moderators-exploited-to-train-ai/
- Ethics and discrimination in artificial intelligence-enabled recruitment practices | Humanities and Social Sciences Communications
- AI is biased against speakers of African American English, study finds | University of Chicago News
- https://www.nytimes.com/2021/03/15/technology/artificial-intelligence-google-bias.html
- AI tools show biases in ranking job applicants’ names according to perceived race and gender | UW News
- AI hiring tools may be filtering out the best job applicants