Difusió sobre els perills, males pràctiques i abusos de les GAFAM / FAANG?Hola! Estava buscant algun lloc que faci d’
inventari per a les males pràctiques, perills, i abusos de les diferents GAFAM, o FAANG, a la qual hi podríem unir OpenAI i d’altres que busquen monopolitzar els seus respectius àmbits tecnològics. Idealment seria un lloc que fes fàcil veure-ho amb poc temps d’atenció (estic pensant amb alumnat d’informàtica de cicles formatius), i que pogués ampliar cada punt. Idealment seria en català, o en castellà (també podria ser en anglès ja que els navegadors poden traduir, i el Firefox ja té un mode per a fer-ho respectuós amb la privacitat).
He estat buscant i no trobo res que m’agradi. Hi ha algun article de diari (
Los cinco colosos que sostienen la vida digital, cómo han llegado ahí y por qué se han vuelto peligrosos del 2021) o aquest article científic en forma (
El lado oscuro de las GAFAM: monopolización de los datos y pérdida de privacidad del 2022). Però no són gaire visuals.
Hi ha la web de
The GAFAM poster campaing toolkit, però no explica el per què (o no ho sé trobar). Pot ser que
La Quadrature du Net tinguin alguna cosa semblant, però em perdo en la quantitat enorme de material que tenen (alguna cosa en castellà inclosa).
Algú em podria orientar? Merci!

El que poso a continuació potser pugui servir com a base per crear algun lloc web amb aquesta informació, si és que no n’hi ha cap mínimament satisfactori. Entre els temes a tractar, i en relació a cadascuna d’aquestes grans empreses:
- espionatge de dades (és a dir, com agafen informació personal d’amagat, o amb dark patterns, enganyosament, etc.)
- tràfic de dades: de quina manera s’enriqueixen amb les dades que donem (o, per mirar-ho d’una altra manera: de quina manera treballem per a aquestes empreses, de quina manera creen granges on nosaltres som els animals a engreixar)
- control de la informació i discurs: instàncies conegudes de manipulació del discurs, de les idees admeses o no (tant a xarxes socials com IAs!). D’això en podem dir “tancament del bucle”: recullen informació nostra (en interaccions, cerques, missatges) i controlen la informació que ens donen.
- segrest de l’atenció: algoritmes i tècniques sofisticades per explotar la nostra biologia cerebral, el nostre cablatge cognitiu i químic, a la manera de les màquines escurabutxaques, per mantenir-nos enganxats i segrestar la nostra atenció.
- Relacionat amb l’anterior: impactes psicològics individuals i col·lectius: polarització, increment d’insatisfacció amb el cos, amb la pròpia vida, instrumentalització de la vida al servei del perfil social (m’ho invento, però em pregunto: hi ha gent que fa coses només per poder-ho publicar?). No sé com quedaria la part de notícies falses i mentides que corren, ja que també passa amb missatgeria instantània (vull dir: els bulos poden córrer per Signal, per dir quelcom, igual de bé que per altres canals).
- Abús de poder per consolidar i augmentar la posició dominant. Dominació per expulsar possibles alternatives (com programari i xarxes lliures), per a fer lobby (lobbisme?) per conformar la legalitat pels seus interessos
- Lligams amb la indústria militar: la majoria de les grans corporacions tecnològiques tenen lligams amb la indústria militar o exèrcits (ergo són indústria militar, vaja). Des de proveïdors de núvol
- Abús de poder per entrenar LLM o altres “IA” generatives saltant-se els drets d’autoria o llicències (aquí podria entrar també un dilema sobre això dels drets d’autoria, sobre com se suposa que les persones que creen obres haurien de poder-se finançar sense implicar tancar els drets sobre les creacions… un jardí!)
- Lligams amb l’ultradreta, o de quina manera serveixen a l’ultradreta, i els perills de que governs ultradretans puguin utilitzar la informació d’aquestes empreses per detenir, callar, eliminar… les veus i persones dissidents. Potser no només perills, sinó instàncies ja conegudes d’això.
- Més pensant per a “IA”: la cursa armamentística que hi ha al voltant (perquè la IA té aplicacions militars clares), l’enorme risc que hi ha si realment s’aconsegueix crear una IA (risc d’alineament, hi ha qui ho compara amb el risc nuclear, o el de la primera vegada que van detonar una bomba d’hidrogen, on no es tenia clar que la detonació no anés a cremar tota l’atmosfera de cop)
Segurament hi ha més riscos, i cada empresa en toca uns quants. Estaria bé poder mostrar gràficament com (o quant) cada empresa genera aquests riscos / abusos…
I finalment, és clar, alternatives lliures per a tot! D’això ja hi ha webs que ho tenen, però bé, igual podria estar bé.
Merci per avançat!
1 publicació - 1 participant Llegeix tot el tema