Achter de hoogdravende beloftes van superintelligente software zit een realiteit van verborgen uitbuiting in lageloonlanden. De ideologische hype moet een steeds verdergaande automatisering en race to the bottom van het laatkapitalisme verbergen.
In 1770 bouwde Wolfgang von Kempelen de schaakmachine De Mechanische Turk, die de wereld rondtoerde en heel wat mensen kon verslaan met sterk schaakspel. Verstopt achter alle indrukwekkend raderwerk zat echter een menselijke schaakmeester die de zetten deed.
Vandaag de dag, zou je denken, is zoiets niet meer nodig. Schaakcomputers – echte dit keer – verslaan met gemak zelfs de beste schaakkampioenen. En technologie evolueert verder. De laatste maanden kan je geen nieuws meer bekijken of het gaat over “AI” – artificiële intelligentie, een verzamelnaam voor een brede groep software die, althans volgens de bedrijven die er miljarden in investeren, de wereld sterk vooruit kunnen helpen. En misschien ook de winst wat vergroten? We nemen een kijkje.
De verborgen menselijke uitbuiting achter ChatGPT
Eén van de meest populaire “AI” toepassingen vandaag is ChatGPT (GPT-4), een softwareprogramma dat getraind is op door mensen geschreven teksten. De software genereert teksten die lijken op die menselijke teksten, dat lukt de ene keer al beter dan de andere. Gezien de software getraind is op data van het internet, krijg je vaak een middenmoot te zien van wat het internet je voorschotelt: overtuigend klinkende analyses die soms kloppen en soms helemaal verkeerd zijn, gemixt met een hoop racisme en seksisme.
Maar net als bij de Mechanische Turk zit er bij ChatGPT een verborgen luik: deze software kan zichzelf niet trainen, dat moet gebeuren met feedback door mensen. Welke mensen? Onderbetaalde mensen uit Kenya, die voor minder dan $2 per uur moeten werken om de software bruikbaar te maken.(1) The mounting human and environmental costs of generative AI, Sasha Luccioni, 2023. https://arstechnica.com/gadgets/2023/04/generative-ai-is-cool-but-lets-not-forget-its-human-and-environmental-costs/(2) OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic, Billy Perrigo, 2023
https://time.com/6247678/openai-chatgpt-kenya-workers/
Zonder menselijke training reproduceert de software kritiekloos teksten zoals je die vindt op internet, als een statistische papegaai. (3)On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Emily M. Bender, Timnit Gebru, et al., 2021. FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, March 2021, Pages 610–623, https://doi.org/10.1145/3442188.3445922 Om het gruwelijke seksisme, racisme e.d. aan banden te leggen zijn er dus onderbetaalde werkers – die de walgelijkste stukken internet, met seksueel misbruik en erger, van feedback moeten voorzien. Ook Facebook (Meta) gebruikt een dergelijk systeem om berichten en commentaar te censureren, en de mensen daarachter zijn vaak na enkele weken kapot door de vele gruwelen die ze non-stop moeten lezen.
Het heeft iets neokoloniaal: gezellig op je smartphone een tekst laten samenvatten door ChatGPT, dat voelt zo modern en technologisch hip, terwijl verborgen voor de westerse consument er duizenden mensen voor moeten zwoegen om dat mogelijk te maken.
Amazon heeft recent een nieuw uitbuitingsplatform gemaakt waar bedrijven goedkope flexi-arbeid kunnen inhuren, bijvoorbeeld om AI-software te trainen. De naam van dat platform? Mechanical Turk. In hun eigen woorden:
“Amazon Mechanical Turk (MTurk) is a crowdsourcing marketplace enabling individuals and businesses (known as Requesters) to engage a 24/7, global distributed workforce (known as Workers) to perform tasks. A Human Intelligence Task (HIT) is a single, self-contained task a Requester creates on MTurk, an example of a task would be “Identify the red apple in this image of a fruit basket”. (Amazon Mechanical Turk website, mei 2023)”
Schaamte kennen multinationals niet, enkel maximalisering van winsten. Ook hier weer de verborgen tegenstelling: jij denkt dat je moderne software gebruikt die gewoon erg goed is in het herkennen van objecten, en met elke druk op de knop draag je bij aan een complexe machine van menselijke uitbuiting, met werkers die elke dag honderden foto’s moeten bekijken en daar appels e.a. op aan klikken.
De politieke en ethische dimensie
Microsoft en Google, twee van de multinationals die miljarden investeren in AI, hadden oorspronkelijk teams die moesten letten op de ethische aspecten van de nieuwe ontwikkelingen. Deze teams hadden zware bedenkingen, vonden bijvoorbeeld dat de impact van de software onvoldoende onderzocht was. De reactie van de bazen bij Microsoft en Google was dan ook om deze teams gewoon buiten te kegelen.(4) Microsoft lays off team that taught employees how to make AI tools responsibly, Zoe Schiffer & Casey Newton, 2023 https://www.theverge.com/2023/3/13/23638823/microsoft-ethics-society-team-responsible-ai-layoffs The show must go on, en er moet winst gemaakt worden.
De software die mensen nu al kunnen gebruiken is dan ook weinig getest, en de lange-termijn impact op mensen en de maatschappij wordt door die multinationals volledig genegeerd.
Timnit Gebru, ingenieur bij Google, schreef een artikel over de problemen van de gebruikte software en werd prompt ontslagen toen ze weigerde haar artikel te censureren.(5) What Really Happened When Google Ousted Timnit Gebru, Tom Simonite, 2021. https://www.wired.com/story/google-timnit-gebru-ai-what-really-happened/ Het betreffende, interessante artikel is wel gepubliceerd geraakt en kan door iedereen geraadpleegd worden.(6)On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Emily M. Bender, Timnit Gebru, et al., 2021. FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, March 2021, Pages 610–623, https://doi.org/10.1145/3442188.3445922
De machinesoftware wordt getraind op alles dat ze op internet vinden, zonder om te kijken naar auteursrecht of toestemming. De eerste versies van die software genereerde vaak dan ook netjes de copyright notices ergens in de beelden. Enkele kunstenaars hebben al rechtszaken aangespannen.(7)AI art tools Stable Diffusion and Midjourney targeted with copyright lawsuit, James Vincent, 2023 https://www.theverge.com/2023/1/16/23557098/generative-ai-art-copyright-legal-lawsuit-stable-diffusion-midjourney-deviantart De software wordt ook op kunstenaarswebsites, zoals DeviantArt, gelanceerd. Alle aanwezige kunst daar wordt automatisch mee gebruikt, tenzij je expliciet aanduidt dat je daar geen toestemming voor geeft – en in de meeste gevallen is het dan al te laat.
De milieukost
Bij fabrieken die toxische stoffen de lucht in jagen of lozen in rivieren is het soms makkelijker te zien, maar ook de informaticasector draagt sterk bij tot de vervuiling en opwarming van de aarde.
Eén van de grootste vervuilers zijn de zogenaamde datacenters – immense verzamelingen servercomputers. In die datacenters worden de websites van de wereld beheerd, documenten opgeslagen – the cloud is just someone else’s computer – en worden complexe berekeningen gemaakt zoals voor de huidige “intelligente” software. Het energieverbruik jaagt CO2 de lucht in, en elke dag worden er miljoenen liters water gebruikt om die datacenters gekoeld te houden.
De eigenaars van die datacenters, zoals Amazon, Microsoft en Google (Alphabet), moeten door allerlei politieke deals nooit opdraaien voor hun milieuvervuiling. Dit is niet enkel een globaal probleem maar ook lokaal: hun waterverbruik zorgt voor tekorten bij mensen, dieren, en een uitputting van de grond, vaak in gebieden die al onder zware droogtestress staan.(8) The Secret Cost of Google’s Data Centers: Billions of Gallons of Water to Cool Servers, Nikitha Sattiraju, 2020
https://time.com/5814276/google-data-centers-water/ De multinationals proberen dit enorme verbruik te verzwijgen. Naar schatting gebruikte Google 15 miljard liter water om hun datacenters te koelen in 2021.(9)Google’s data center water usage is revealed – and it’s a lot, Lewis Maddison, 2022
https://www.techradar.com/news/googles-data-center-water-usage-is-revealed-and-its-a-lot(10)Data centre water consumption, David Mytton, 2021
https://www.nature.com/articles/s41545-021-00101-w
Momenteel populaire software zoals ChatGPT, DALL-E, en MidJourney om teksten en beelden te genereren, draaien op enorme serverboerderijen met duizenden en duizenden processors en grafische kaarten die een enorm energieverbruik kennen.
Er wordt zoals steeds beterschap beloofd in de toekomst: de software wordt efficiënter en draait meer en meer ook op computers van gewone consumenten. Dat is echter een schaalvergroting van het probleem. Desktopcomputers, en vooral de grafische kaarten waar ook de machine trainingssoftware op draait, verbruiken steeds méér energie.(11)The Rise of Power: Are CPUs and GPUs Becoming Too Energy Hungry?, Nick Evanson, 2022
https://www.techspot.com/article/2540-rise-of-power/ Vermenigvuldig dat met de miljoenen meer computergebruikers dan er datacenters zijn, en het probleem wordt veelal erger.
Ideologische hype
De huidige AI-software wordt voorgesteld als een “echte” intelligentie, met allerlei futuristische doemscenario’s over AI die de wereld overneemt en het mensenras gaat onderdrukken.
Er verscheen recent een open brief van mensen die zich voordeden als bezorgd over de razendsnelle ontwikkelingen van AI. We zouden beter zes maanden pauze nemen en eens nadenken. Eén van de ondertekenaars was Elon Musk, die net zijn eigen AI-firma oprichtte en waarschijnlijk hoopte om die maanden te gebruiken voor een inhaalbeweging.
Dat de software vaak gewoon verkeerde antwoorden geeft is iets dat wordt weggewuifd onder het mom van technologische vooruitgang – herkenbaar want dat zien we ook rond de klimaatcrisis: ah die vervuiling geen probleem, we vinden wel iets uit in de toekomst om die CO2 op te slaan. Als de software een samenvatting genereert van een tekst op Wikipedia, kan het antwoord wel redelijk correct zijn. Maar soms gaat het volledig mis, zoals Microsofts Bing die dacht dat er een paar miljard mensen woonden op Mars – onder andere omdat de sciencefiction reeks The Expanse zo populair is dat ze vaak bovenaan zoekresultaten staat. Dergelijke resultaten worden dan snel weggepoetst, opnieuw door mensen die de software moeten “corrigeren.”
Softwarefouten die in het nieuws komen, doen de beurskoersen van die multinationals dalen, dus ze hebben er alle belang bij mogelijke fouten en problemen onder het tapijt te vegen.(12)Google shares drop $100 billion after its new AI chatbot makes a mistake, Emily Olson, 2023 https://www.npr.org/2023/02/09/1155650909/google-chatbot–error-bard-shares
Waarom maakt die software zo’n fouten? Omdat er geen intelligentie in het systeem zit. Ondanks de naam AI en ondanks de enorme hype: er zit geen intelligent denkende machine in die software, het blijft een – soms indrukwekkende – tekst generator die op basis van statistische waarschijnlijkheden woorden aan elkaar rijgt.
Dat geldt ook voor meer direct gevaarlijke software, zoals die van auto’s met zogenaamde “autopilots” of “full self driving” of dergelijke. Zogenaamd wordt deze software steeds beter en “zijn we er bijna,” maar de mensen die daar extra geld voor neerleggen kopen een levensgevaarlijke kat in de zak.
Tesla, een maker van elektrische auto’s met dergelijke software, heeft al heel wat doden veroorzaakt met autosoftware die iets mist en de auto gewoon in een vrachtwagen of stalen vangrail doet rijden. Tesla steekt de fout steeds op de menselijke bestuurder en beweert dat de software niet aanstaat op het moment van de crash – critici daarentegen zeggen dat Tesla de gegevens vervalst. Controleren kan niet want enkel Tesla beschikt over de gegevens, die zij netjes kunnen opkuisen voor ze die aan derden overhandigen ter controle. En wat gebeurt er als er een noodgeval is? Bij een recente brand in San Francisco reed een software gestuurde auto gewoon door de afzetting heen – brandweerlieden moeten daar regelmatig de voorruit van dergelijke auto’s inslaan om te voorkomen dat ze elektrische kabels of brandslangen omverrijden.(13) ‘No! You stay!’ Cops, firefighters bewildered as driverless cars behave badly, Joe Eskenazi, 2023. https://missionlocal.org/2023/05/waymo-cruise-fire-department-police-san-francisco/
Ondanks alles stellen multinationals hun software voor als extreem intelligent, zelfs misschien gevaarlijk intelligent. In allerlei nieuwsberichten van deze bedrijven stellen ze dat de software nieuwe mogelijkheden ontwikkelt, helemaal vanzelf, zelf een nieuwe taal leert… leugens (14)Prof. Emily M. Bender publiceert een aantal takedowns van populaire leugens over AI: https://medium.com/@emilymenonbender/aihype-take-downs-5c6fcc5c5ba1 maar ze spreken tot de verbeelding. Mensen bedenken dan allerlei scenario’s dat het plots heel snel kan gaan en dat we binnenkort misschien veralgemeende superintelligente AI hebben, hopelijk gaat die dan het menselijke ras niet onderdrukken… Leuk als gedachtespel maar het effect is wel het bedekken van de huidige, reëel bestaande onderdrukking. Het probleem is niet toekomstige slimme AI, het probleem bestaat nu: kapitalistische multinationals die ons vandaag uitpersen en voorliegen.
Steeds verder gaande automatisering
Als die software niet echt intelligent is en vaak fouten maakt of hele vage onzin uitkraamt, waarom zou die dan ingezet worden? Alles draait om winstmaximalisatie. Het kan multinationals niet schelen of teksten nu ergens op slaan of niet, of een antwoord juist is of niet, of de maatschappij vierkant draait door de software. Enkel de winst telt. De software kan gebruikt worden om mensen te ontslaan en minder mensen in dienst te houden, wiens taak dan wordt om de software bij te sturen en de ergste kantjes er af te vijlen.
Minder mensen betalen betekent op korte termijn meer winst, en dat is het enige waar het om draait. Dat dat op lange termijn een samenleving ontwricht kan de kapitalisten niets schelen, net zoals de aarde onleefbaar wordt door hun ecologische verwoesting – tenzij wij hen tegenhouden.
De mensen die bedenkingen hebben of eerst een analyse willen van de menselijke kost, worden steevast afgeschilderd als conservatief, tegen technologie… maar dat is een karikatuur. Nieuwe technologie om mensen verder uit te buiten en te vervreemden, om nog meer mensen in de armoede te gooien en te vervangen door goedkopere arbeid en software, is goed voor kapitalisten maar niet voor de werkende klasse.
Besluit
Als we ons niet verzetten, wordt het nog erger. De al eerder vermelde multinationals proberen nu “AI” machinesoftware te introduceren in de gezondheidszorg. Een machine zonder intelligentie die allerlei onwaarheden stellig beweert, waar managers in geloven die geld willen besparen? Het zou een logische volgende stap zijn voor mensen die nu al bezig zijn de gezondheidszorg kapot te besparen en verder te privatiseren.
Terwijl ik dit schrijf is de WGA, de Writers Guild of America, in staking gegaan. (15)Zie https://www.wgacontract2023.org/strike-hub Naast andere eisen over werkomstandigheden verbeteren is er ook de eis van een garantie dat schrijvers geen nog slechter betaalde hulpjes worden, die door software gegenereerde teksten moeten opkuisen en bruikbaar maken.
“The immediate fear of AI isn’t that us writers will have our work replaced by artificially generated content. It’s that we will be underpaid to rewrite that trash into something we could have done better from the start. This is what the WGA is opposing and the studios want.” (C Robert Cargill)(16) C. Robert Cargill via Twitter, https://twitter.com/Massawyrm/status/1653290624093700096
Wat brengt de toekomst? Dat zal het verzet moeten uitwijzen, ook hier ligt een belangrijke taak voor vakbonden en de brede linkerzijde. In de tussentijd kunnen we ons denken behoeden voor enkele misvattingen: de software heeft geen brein, geen moreel besef, geen intelligentie. Als we over dergelijke software spreken dan is het van belang om precies te zijn en geen taal te gebruiken die een verkeerde indruk van bewustzijn of intelligentie zou wekken.(17)Artifice and Intelligence, Emily Tucker, 2022. https://techpolicy.press/artifice-and-intelligence/
Voetnoten
↑1 | The mounting human and environmental costs of generative AI, Sasha Luccioni, 2023. https://arstechnica.com/gadgets/2023/04/generative-ai-is-cool-but-lets-not-forget-its-human-and-environmental-costs/ |
---|---|
↑2 | OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic, Billy Perrigo, 2023 |
↑3, ↑6 | On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Emily M. Bender, Timnit Gebru, et al., 2021. FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, March 2021, Pages 610–623, https://doi.org/10.1145/3442188.3445922 |
↑4 | Microsoft lays off team that taught employees how to make AI tools responsibly, Zoe Schiffer & Casey Newton, 2023 https://www.theverge.com/2023/3/13/23638823/microsoft-ethics-society-team-responsible-ai-layoffs |
↑5 | What Really Happened When Google Ousted Timnit Gebru, Tom Simonite, 2021. https://www.wired.com/story/google-timnit-gebru-ai-what-really-happened/ |
↑7 | AI art tools Stable Diffusion and Midjourney targeted with copyright lawsuit, James Vincent, 2023 https://www.theverge.com/2023/1/16/23557098/generative-ai-art-copyright-legal-lawsuit-stable-diffusion-midjourney-deviantart |
↑8 | The Secret Cost of Google’s Data Centers: Billions of Gallons of Water to Cool Servers, Nikitha Sattiraju, 2020 |
↑9 | Google’s data center water usage is revealed – and it’s a lot, Lewis Maddison, 2022
https://www.techradar.com/news/googles-data-center-water-usage-is-revealed-and-its-a-lot |
↑10 | Data centre water consumption, David Mytton, 2021 |
↑11 | The Rise of Power: Are CPUs and GPUs Becoming Too Energy Hungry?, Nick Evanson, 2022 |
↑12 | Google shares drop $100 billion after its new AI chatbot makes a mistake, Emily Olson, 2023 https://www.npr.org/2023/02/09/1155650909/google-chatbot–error-bard-shares |
↑13 | ‘No! You stay!’ Cops, firefighters bewildered as driverless cars behave badly, Joe Eskenazi, 2023. https://missionlocal.org/2023/05/waymo-cruise-fire-department-police-san-francisco/ |
↑14 | Prof. Emily M. Bender publiceert een aantal takedowns van populaire leugens over AI: https://medium.com/@emilymenonbender/aihype-take-downs-5c6fcc5c5ba1 |
↑15 | Zie https://www.wgacontract2023.org/strike-hub |
↑16 | C. Robert Cargill via Twitter, https://twitter.com/Massawyrm/status/1653290624093700096 |
↑17 | Artifice and Intelligence, Emily Tucker, 2022. https://techpolicy.press/artifice-and-intelligence/ |