Conflictes ètics de la Intel·ligència Artifical

Hola!

Circumstancialment he recollit alguns dels conflictes ètics i socials que generen les intel·ligències artificials (IAs) en un petit text i les seves referències. Ja que he fet la feina, aprofito per compartir-ho per aquí i així ho podem discutir i completar col·lectivament. Tinc previst afegir alguns apartats més (com per exemple la precarització de les ocupacions que les IA substitueixen o el possible impacte en l’aprenentatge que l’abús de les IAs poden generar).


Conflictes ètics de la Intel·ligència Artifical

La Intel·ligència Artificial (IA) és un conjunt heterogeni d’eines que estan de moda, especialment després de l’aparició de les de tipus generatiu (ex. ChatGPT). La IA ja fa temps que s’utilitza en diversos camps i és una eina potent, però a la vegada el seu procés genera conflictes ètics que cal ser-ne consicents per a fer un ús just d’aquesta eina.

Com qualsevol producte o eina, sigui un tomàquet o una peça de roba, ens hem de preguntar quines relacions humanes i amb el territori s’estableixen i si són justes.

Energia i Impacte Ambiental

L’entrenament de models per a les IA tenen uns requeriments energètics enormes i en menor grau, la infraestructura per a oferir el servei en línia també en té. Aquests requeriments i els que es preveuen en el creixement capitalista en el què vivim fan que les grans tecnològiques Microsoft [1-3], Google [4] o Amazon [5] estigui planificant l’ús d’energia nuclear per a alimentar les seves IAs.

En aquest sentit, és interessant observar que l’ús de les IAs generatives com ChatGPT tenen un cost molt major (de fins a 30 vegades superior) que una IA especialitzada per a realitzar una tasca [6]. D’aquesta manera, un ús racional de les IAs permetria reduir-ne el cost energètic.

És especialment preocupant l’enorme consum d’aigua per part dels centres de dades necessaris en aquesta indústria en un context de sequera creixent pel canvi climàtic [7].

Copyright

El contingut que s’ha utilitzat per a entrenar aquestes IAs gegants també està ple d’ombres i múltiples denúncies han assenyalat l’ús no autoritzat de material llicenciat. Des de portals de fotografia d’estoc com Getty [8], diaris [9-10], col·lectius d’artistes [11] o programadors de software amb codis a Github [12].

És molt pervers l’ús fraudulent d’un contingut que pot contribuir a precaritzar aquestes mateixes creadores (especialment les autònomes o als marges). Una cosa és apropiar-se de la cultura per a fer-la lliure i popular i l’altra és fer-ho per a enriquir-se.

Moderatores de l’entrenament dels models de les IA

També té importants implicacions ètiques l’externalització que fan les grans tecnològiques de la moderació i classificació feta per humans per tal d’entrenar les IAs. Ens venen que són súperintel·ligents, però per a entrenar-les cal molta participació humana per a classificar correctament les dades d’entrenament.

Com a moltes altres indústries, aquesta tasca poc qualificada i molt repetitiva, alienant i en alguns casos amb gran impacte psicològic, s’externalitza a països del Sud global com Kènia o Filipines i es subcontracten empreses en que les condicions de les seves treballadores són de precarietat. [13-15]

Biaixos de les IAs

Finalment, un dels problemes de la implementació de les IAs és l’aura d’objectivilitat que sovint acompanya la tecnologia. S’utilitza aquesta pretesa neutralitat per a deixar en mans d’algoritmes decisions que poden afectar a molta gent. Tanmateix nombrosos estudis documenten que les IAs tenen biaixos (com per exemple de gènere o racials), ja que incorporen aquells que són presents en qui dissenya els algoritmes i en les dades que s’utilitzen per a entrenar els models. I un dels problemes és que la responsabilitat davant d’una injustícia queda molt més etèrea i diluïda quan qui ha près la decisió és un algoritme i no una persona. [16-20]


  1. https://www.nytimes.com/2024/10/16/business/energy-environment/amazon-google-microsoft-nuclear-energy.html
  2. Microsoft necesita una cantidad descomunal de energía para sus servidores de IA. Su solución: centrales nucleares
  3. Accelerating the Next Wave of Nuclear to Power AI Innovation - Meta Sustainability
  4. Google turns to nuclear to power AI data centres
  5. Nuclear power for AI: what it will take to reopen Three Mile Island safely
  6. Crear una sola imagen con inteligencia artificial consume tanta energía como cargar un móvil
  7. Si la inteligencia artificial bebe tanta agua, ¿cómo brotan sus centros de datos en la España seca?
  8. Generative AI in the courts - Getty Images v Stability AI
  9. https://www.nytimes.com/2024/04/30/business/media/newspapers-sued-microsoft-openai.html
  10. Eight US newspapers sue OpenAI and Microsoft for copyright infringement | ChatGPT | The Guardian
  11. Artists’ lawsuit against Stability AI and Midjourney gets more punch - The Verge
  12. Demandan a Microsoft por violar licencias con GitHub Copilot
  13. ‘It’s destroyed me completely’: Kenyan moderators decry toll of training of AI models | Artificial intelligence (AI) | The Guardian
  14. https://www.washingtonpost.com/world/2023/08/28/scale-ai-remotasks-philippines-artificial-intelligence/
  15. https://sustain.algorithmwatch.org/en/moderators-exploited-to-train-ai/
  16. Ethics and discrimination in artificial intelligence-enabled recruitment practices | Humanities and Social Sciences Communications
  17. AI is biased against speakers of African American English, study finds | University of Chicago News
  18. https://www.nytimes.com/2021/03/15/technology/artificial-intelligence-google-bias.html
  19. AI tools show biases in ranking job applicants’ names according to perceived race and gender | UW News
  20. AI hiring tools may be filtering out the best job applicants
4 'M'agrada'

Justet avui hem tingut una reunió del hackerspace amb l’escola de cultura (és un lloc per ensenyament voluntari a nivell d’ajuntament) i un dels projectes en el que treballarem junts serà parlar de l’ètica en la IA per un projecte en el que volen utilitzar-la. Aquests punts m’aniran de perles com a punt de partida.

2 'M'agrada'

Hola! Jo tinc un text també al respecte a compartir. Quina seria la millor manera de fer-ho si està vinculat amb el tema? En un altre entrada a part? Gràcies! :slight_smile:

1 'M'agrada'

Hola!

Jo crec que pots afegir-ho en aquest fil, si vols.

Pot pensar una màquina? Ramon Llull és considerat una de les primeres persones a imaginar que el raonament podia ser executat de manera artificial, amb la seva obra Ars Magna. L’any 1937, Alan Turing va publicar un article que va establir les bases teòriques de les ciències de la computació, sent considerat l’origen oficial de la informàtica teòrica.

Tot i que els fonaments d’aquestes idees es troben en la lògica i els algorismes (un conjunt finit
d’instruccions per resoldre tasques o problemes) dels grecs, així com en les matemàtiques dels
àrabs, no va ser fins a mitjans del segle XX que apareixen màquines capaces d’usar aquestes
lògiques per oferir solucions automatitzades.

El novembre de 2022 va aparèixer ChatGPT, desenvolupat per l’empresa OpenAI, un robot de
conversa d’intel·ligència artificial que va popularitzar aquesta tecnologia. OpenAI afirma que la
seva missió és «garantir que la intel·ligència artificial general beneficiï tota la humanitat». Però, és
realment així?

Capitalisme i dinàmiques

La intel·ligència artificial encaixa perfectament dins de la modernitat capitalista, orientada a optimitzar la producció i maximitzar beneficis. Tot plegat amb una dinàmica colonial en el cor de la tecnologia i desentesa de la depredació de recursos que comet. El resultat és un augment de la productivitat sense tenir en compte la democratització del coneixement, tal com afirmen les empreses.

Encara que aparentment la IA sembla desenvolupada per experts de Silicon Valley, la major part del procés es basa en l’explotació capitalista nord-sud, sent els països del sud global els llocs on s’hi ha deslocalitzat l’entrenament d’aquests algorismes i models de dades. Aquestes feines subcontractades, tot i ser essencials pel desenvolupament de la IA ja que «eduquen» el sistema, ocupen la part més baixa de la cadena de producció de les grans empreses tecnològiques.

Moltes vegades es percep que el programari i Internet no tenen un cost material, però conceptes com «el núvol» amaguen la realitat: milers de servidors interconnectats consumint grans quantitats d’aigua i electricitat. Igual que Internet, que depèn de 1.000 milions de metres de cable submarí, la IA requereix centres de processament de dades que consumeixen enormes quantitats d’aigua (68.219 litres per dia) per refredar els equips i electricitat. Els centres de dades ja representaven l’1% del consum mundial d’electricitat, però amb l’augment de l’ús de la IA, aquesta xifra ha pujat al 2%. Això sense comptar els materials necessaris per fer funcionar aquests equips.

En plena crisi climàtica, les grans empreses tecnològiques acceleren el camí cap a l’abisme. Tanmateix, comencen a créixer resistències al Sud Global davant la tirania tecnològica, com la que hem vist amb la vaga indefinida de Samsung a Corea del Sud, exigint augment de sous i diverses millores laborals suposant la vaga més gran de la seva història amb més de 6500 treballadors seguint-la en la fàbrica més gran del món dels xips, vaga que recentment s’ha extés en plantes de Samsung Electronics també a la Índia a la ciutat de Chennai, al sud del país. La lluita internacionalista de les dominades serà clau per tombar als gegants tecnològics.

Impacte social de la IA

La IA no només representa un perill ecològic pel seu caràcter capitalista, sinó que també implica riscos socials greus. Eines com Chat-GPT o els generadors d’imatges i deepfakes poden dificultar la distinció entre veritat i mentida, afavorint la manipulació de l’opinió pública i reforçant la mentalitat dominant. Això pot generar incerteses sobre el que és real, posant en dubte la veracitat de les informacions.

Aquestes tecnologies podrien facilitar la manipulació a gran escala, afectant processos democràtics i permetent que grups com l’extrema dreta culpabilitzin col·lectius vulnerables, com s’ha vist en les últimes eleccions a França. Seria fonamental exigir que tot contingut generat per IA estigui clarament marcat per evitar la seva manipulació (ara les empreses estan començant a explicar-ho al revés, que les persones hauran de validar que són reals per provar que és algo verificable, cal posar el focus en ells). A més, cal promoure una educació crítica que ajudi a entendre els impactes d’aquestes tecnologies.

Aquests perills es deriven també del fet que la IA no és neutral. Les dades que la formen i la manera com es desenvolupen els algorismes reflecteixen una visió capitalista, racista i patriarcal del món. Això reforça l’hegemonia social i perpetua les desigualtats. Aquesta manera de veure el món que tindrà la IA, doncs, reproduirà aquests biaixos generant futurs possibles i camins a partir d’aquestes bases, per tant, seguiran apuntant a la dominació. Per garantir que aquestes eines siguin justes, és imprescindible poder auditar (revisar) els algorismes i les dades que els entrenen.

Si els hi atorguem un paper quasi diví, amb la capacitat de tenir sempre «la veritat», acabarem per no entendre les dinàmiques que està reproduint i sent cada cop menys autònomes. Cada vegada veiem com més institucions públiques utilitzen aquestes tecnologies per legitimar decisions i no haver de prendre els riscos la institució. Això ens porta a ser menys capaces de saber com es prenen les decisions, amb quins criteris (ja que la majoria de programari són caixes negres no auditables) i que per tant s’estiguin prenent decisions discriminatòries sense poder-ne ser conscients. Així doncs, les desigualtats entre les dominades es poden veure encara més amplificades i a la vegada les empreses que utilitzen aquestes dades cada cop poder perfeccionar més els seus sistemes amb la nostra informació.

Així doncs, la IA reforçarà el poder de les grans corporacions i de l’Estat, ampliant l’escletxa entre aquells que controlen la tecnologia i la resta de la població. Les institucions es podran espolsar de responsabilitats tot parlant de «neutralitat» i de paraules tècniques per escapar de donar suport a les dominades. No se’ls ha de permetre que aquestes tecnologies no auditables s’utilitzin en el sector públic, així que s’haurà d’exigir marcs legals que regulin estrictament l’ús de la IA, assegurant la transparència, la rendició de comptes i la protecció de les persones més vulnerables. (exemple Xnet)

Hi ha camp de lluita a la IA?

Un cop clara la dinàmica de dominació inherent a la IA, hi ha camp de lluita?

Històricament, s’ha cregut que les noves tecnologies podrien conduir al comunisme, però sovint han acabat reforçant el capitalisme. Un exemple interessant és el projecte Cybersyn de la Xile de la Unitat Popular, que va ser una iniciativa pionera per planificar els recursos del país en temps real mitjançant una xarxa de telecomunicacions. Tot i el seu potencial, aquest projecte va ser frustrat pel cop d’estat de 1973 (el 11 de setembre de 1973, fa 51 anys).

Iniciatives com l’Open Model Initiative (OMI), una IA desenvolupada amb codi obert, podrien fomentar la transparència i evitar la concentració de poder en poques mans. Però, podem imaginar una IA que apunti a la utopia?

L’estructura centralitzada de la IA actual, juntament amb la separació entre cos i ment que aquesta implica, ens porta a qüestionar si realment és possible apropiar-se d’aquestes tecnologies en el socialisme.

A nivell individual:

La I.A. tal i com l’entenem segurament mai pugui ser emancipadora, pel seu propi funcionament, per aquesta separació cos-ment que ens posa a la posició de ser autòmats. Segurament en l’origen d’Internet, quan els diferents nodes no estaven descompensats i tots eren iguals (p2p) hi havia una possibilitat de revolució (comunisme de parells) que a la web 2.0. actual és irrealitzable: només ens queda combatre als nodes on hi ha explotació (els que tenen poder).

Tot i així, penso que una IA de codi obert auditable i construïda amb el pensament alliberador, ens permetria poder reduir la burocràcia interna d’organitzacions, col·lectius… seria l’únic lloc on permetria entrar a la I.A.

Enllaços utilitzats:

  1. La Inteligencia Artificial es fuerza productiva del Capital | Arteka | Gedar
  2. Inteligencia Artificial y administración pública
  3. https://aiforensics.org/uploads/Report_Artificial_Elections_81d14977e9.pdf
  4. Informes, índices y estudios: ¿qué sabemos realmente sobre el uso de IA en América Latina? | Derechos Digitales
  5. Linux Foundation Endorses OMI to Advance Open Source LLM Development
  6. Cambiar Internet desde lo sencillo, desde lo pequeño | Sursiendo
  7. Los cientos de miles de trabajadores en países pobres que hacen posible la existencia de inteligencia artificial como ChatGPT (y por qué generan controversia) - BBC News Mundo
  8. Inteligencia artificial | IA y crisis climática: las grandes tecnológicas escogen España para instalar sus gigantescos centros de datos - El Salto - Edición General
  9. El proyecto Cybersyn y el Chile de Allende - cibcom
1 'M'agrada'

Molt ben explicat! Crec que coincideix en molt punts amb el que jo havia escrit, però ho desenvolupa una mica més (el meu text estava orientat a ser molt esquemàtic).

Tinc un parell de comentaris:

Crec que sovint donem molta importància a l’accés al codi (que ho és, d’important) però sovint no ens fixem tant en la governança. De fet, moltes d’aquestes IAs ja ho són de codi obert. Però si no som capaces d’organitzar-nos comunitàriament per a entrenar els models, per més obert que sigui el codi continuarem tenint una gran dependència de les big tech.

Aquí sumo part que em toca d’aprop. Les IA ja fa temps que s’utilitzen en investigació biomedica per a predir diferents elements.

1 'M'agrada'

Totalment lo del codi obert… primer que ho sigui, després que el poguem entrenar de la manera que volem.

L’última part, la percepció individual, més que res intento parlar de fins on crec que l’hauriem de deixar entrar als col·lectius que lluitem contra el sistema.

1 'M'agrada'

Correcte! Per això ampliava l’àmbit del que per mi tindria sentit invertir en una IA col·lectiva (en aquest cas, la recerca biomèdica).

1 'M'agrada'