Filippo Santoni de Sio*

met Marianna Capasso, Rockwell F. Clancy, Matthew Dennis, Juan Manuel Durán, Georgy Ishmaev, Olya Kudina, Jonne Maas, Lavinia Marin, Giorgia Pozzi, Martin Sand, Jeroen van den Hoven en Herman Veluwenkamp

 

The Social Dilemma, het grotere plaatje

 

Als wereldburgers in de eenentwintigste eeuw zijn we allen dank verschuldigd aan de actieve critici van de digitale wereld die zich uitspreken in de Netflix-documentaire The Social Dilemma. Tristan Harris, Shoshana Zuboff en anderen hebben opnieuw de aandacht gericht op de ongelofelijke macht van de Amerikaanse social media-bedrijven. Maar de documentaire van anderhalf uur en de experts die aan het woord komen vertellen slechts een klein deel van een groter verhaal. Zij richten zich op de macht van Google, Facebook, Twitter en Instagram en de problemen rond verslaving en manipulatie, maar raken slechts even aan de bredere ethische, politieke en economische dimensie van de digitale techniek. Voor degenen die de documentaire deprimerend en schokkend vonden is het dus belangrijk te beseffen dat de dingen niet zo slecht zijn als ze lijken – in veel opzichten zijn ze nog veel slechter. Maar er is ook goed nieuws. Waar de laatste tien minuten van de documentaire vagelijk de indruk wekken dat er iets aan de problemen kan worden gedaan, wordt geen recht gedaan aan enkele al bestaande constructieve voorstellen die naar voren zijn gebracht om de digitale systemen opnieuw te doordenken. De documentaire schiet ook tekort in het geven van een indruk hoe diep en ernstig de ethische en maatschappelijke problemen van onze digitale samenlevingen in de eenentwintigste eeuw daadwerkelijk zijn. Dit artikel is een bescheiden poging beide lacunes op te vullen: een rijker beeld geven van de problemen waarvoor we staan, en enkele algemene manieren voorstellen om deze problemen te benaderen.

 

De problemen

 

Niets te verbergen, veel te verliezen

 

Laten we beginnen met slecht nieuws. Een grote verdienste van The Social Dilemma is dat andermaal wordt getoond dat het grote probleem met Google, Facebook enzovoort eenvoudigweg niet privacy is, maar macht. Het spreken over privacy lijkt te wijzen op een probleem rond de controle van de gebruiker over persoonlijke gegevens: bedrijven of regeringen zouden niet moeten nagaan wat ik doe op mijn computer. Dit lijkt niet zo’n groot probleem: velen menen ‘niets te verbergen’ te hebben[1], en velen kunnen zelfs veel baat hebben bij het ruilen van hun saaie persoonlijke gegevens voor veel opwindender diensten. Dus laat mensen de vrijheid hun gegevens te delen, als zij dat willen. Maar het verzamelen van persoonlijke gegevens leidt tot een ander soort schade wanneer dit de vorm aanneemt van het verzamelen van veel gegevens over grote groepen.[2] Jij als individu bent niet zo belangrijk, maar bedrijven, regeringen en criminelen kunnen grotere plannen hebben. Zij zouden bijvoorbeeld verkiezingen willen kunnen beïnvloeden, zoals sommige mogelijk hebben gedaan in 2016 bij het referendum over Brexit en bij de Amerikaanse verkiezingen, door gebruik te maken van de enorme hoeveelheid gegevens over gebruikers die werden verzameld door de ogenschijnlijk onschuldige app van Facebook die vervolgens werd verkocht via het beruchte consultancybedrijf Cambridge Analytica.[3] Data oogsten op een dergelijke schaal maakt ons kwetsbaar op manieren die verder gaan dan inbreuken op onze individuele privacy. Dit is een nieuw en naar probleem: zelfs als individuele rechten formeel worden beschermd (bijvoorbeeld door middel van formulieren waarin toestemming wordt gegeven) kunnen de gevolgen voor de samenleving heel schadelijk zijn. Het betreft een vorm van ‘cumulatieve schade’. Niet onvergelijkbaar met vervuiling van de omgeving. Een paar plastic zakken in zee vormen geen probleem, maar dag in, dag uit een constante stroom gedurende decennia kan een ecosysteem vernietigen. Je kunt wel denken dat je ‘niets te verbergen’ hebt, maar we hebben allemaal iets te verliezen door het verzamelen van grote hoeveelheden data.

 

De nieuwe heersers

 

The Social Dilemma laat duidelijk zien hoe manipulatief en verslavend de social media platforms zijn, en belicht andere grote maatschappelijke risico’s die eruit voortvloeien: politieke polarisatie die democratische debatten bemoeilijkt, fake news en het schaden van de waarheid. Dit zijn allemaal symptomen van een dieper probleem. Het probleem is niet zozeer wat de grote technologie bedrijven daadwerkelijk doen, maar het naakte feit dat zij in de positie verkeren dat zij kunnen doen wat zij willen, zonder onderworpen te zijn aan enige vorm van controle: economische, wettelijke, politieke, sociale. Facebook is ondanks het schandaal rond Cambridge Analytica[4] in de top tien gebleven van bedrijven die het meeste waard zijn, Twitter kan beslissen de president van de Verenigde Staten het zwijgen op te leggen[5], Google kan beslissen een heel land zijn diensten te onthouden.[6] Deze overheersende positie van de Big Tech-bedrijven, waarin geen rekenschap hoeft te worden afgelegd, is een hedendaags voorbeeld van de dynamiek van de verhouding tussen meester en slaaf, waarnaar vaak wordt verwezen door zogeheten neo-republikeinse politieke filosofen.[7] Zelfs wanneer een meester zijn slaaf geen kwaad zou doen en bijdraagt aan zijn welzijn, zou hij anders verkozen kunnen hebben. Het ernstige morele probleem is overgeleverd te zijn aan iemand die arbitrair macht over je kan uitoefenen.

In de pre-digitale wereld hadden maar weinig mensen het aanvaardbaar gevonden wanneer een paar kleine multinationals zeggenschap hadden gehad over, bijvoorbeeld, de meeste wegen, winkels, restaurants, openbare gebouwen, televisies, telefoons, ziekenhuizen enzovoort; en dat zij zich niet zouden bekommeren om prijs te geven hoe zij hun bedrijven leiden, wat de volgende plek zou zijn die ze zouden kopen of innemen, en dat zij zelfs hun positie zouden gebruiken om experimenten met mensen te doen, mogelijk zelfs om hun gedrag te manipuleren. Maar dit is wat nu gebeurt met de Big Techs in de minder zichtbare digitale infrastructuren. Niet alleen de social media-fora, maar bijvoorbeeld allerlei soorten platforms voor e-commerce (Uber[8], Amazon, enzovoort) gebruiken hun bevoorrechte[9], zelfs bijna monopolistische tussenposities als hefboom om onevenwichtige verhoudingen in informatie te laten voortbestaan[10], hun zakenpraktijken ondoorzichtig te houden, en grote hoeveelheden data van hun gebruikers en klanten te verzamelen. Dit maakt op zijn beurt systematische manipulatie mogelijk door verschillende personalisatie- en hyperpersonalisatietechnieken, waarbij de beste beschikbare psychologische kennis wordt gebruikt.[11] Dergelijke praktijken kunnen op het niveau van een individu minder effectief zijn dan in The Social Dilemma wordt getoond, maar alleen al de omvang en het systematische karakter van dergelijke praktijken is de ware reden voor bezorgdheid. We willen niet zo wezenlijk afhankelijk zijn van systemen waarover we geen macht hebben en die ons enkel zien als objecten om een duwtje te geven, te manipuleren en uit te buiten. Dit is niet alleen een onwenselijk scenario, het is een morele en politieke dystopie.

 

Hoeveel weet ‘Big Brother’?          

 

Over dystopieën gesproken, er wordt vaak beweerd dat we in ‘bewakingssamenleving’ leven, Tech bedrijven zijn de ultieme Big Brother, en hebben uiteindelijk de volledige controle op de bevolking verwezenlijkt door het scheppen van een ‘panopticon’, de volmaakte gevangenis waarin vanuit een centrale toren iedere gevangene de hele tijd wordt gezien, zonder dat de gevangenen terug kunnen kijken in de toren. Tegelijkertijd vrezen anderen dat we afstevenen op een Terminator-scenario, waarin de technologie zelf, en in het bijzondere recente vormen van Artificial Intelligence niet langer door mensen worden beheerst.[12] Dit is zo, omdat de geautomatiseerde processen van analyse en verwerking van data zo ingewikkeld en duister zijn geworden, dat zelfs experts en programmeurs het moeilijk vinden deze te begrijpen en uit te leggen hoe zij zich gedragen en hoe de beslissingen die ervan afhangen tot stand komen. Dit wordt wel het ‘zwarte doos’-probleem van de Artificial Intelligence genoemd.[13] Dus, welke dystopie wordt werkelijkheid – weten de nieuwe heersers meer en meer of minder en minder over ons? Het antwoord is niet eenvoudig. Er bestaan zeker meer en meer gegevens over ons, en deze gegevens worden voortdurend omgezet in informatie, voorspellingen, en reacties vanuit hun technische systemen. Maar het is zeer de vraag of dit als echte kennis moet worden beschouwd, omdat de processen van algoritmes vaak niet toegankelijk en begrijpelijk zijn vanuit menselijk perspectief. Dit is een fascinerende, diepgaande filosofische vraag: zou Artificial Intelligence ons eeuwenoude begrip veranderen van wat als kennis wordt beschouwd? Maar er zijn ook meer dringende praktische kwesties.

 

De risico’s van kunstmatig oordelen

 

Kennis voortgebracht door Artificial Intelligence op basis van ‘big data’ lijkt betrouwbaarder en steviger, omdat zij is afgeleid van geautomatiseerde algoritme-processen die worden opgevat als neutrale wiskundige berekeningen. Maar dit is niet zo. In het Verenigd Koninkrijk werd door een door Artificial Intelligence gestuurd systeem ongeveer 39% van de beste resultaten van schoolexamens verlaagd door de automaat Ofqual’s algorithm.[14] Kansarme studenten werden het hardste geraakt, omdat het algoritme de ongelijkheden kopieerde die in het Britse onderwijssysteem bestaan. Deze ‘algoritmische vooroordelen’ duiken overal op in systemen in de gezondheidszorg, personeelsmanagement en rechtsspraak, nu we beginnen te experimenteren met de toepassing van Artificial Intelligence op deze gebieden. Is dit al een probleem met betrekking tot sociale netwerken, het probleem wordt nog dringender op andere gebieden. In feite spelen op Artificial Intelligence gebaseerde systemen een steeds grotere rol in veel contexten waarin het nemen van beslissingen uiterst gevoelig ligt: rechters kunnen ze tijdens een juridisch proces gebruiken om vast te stellen hoe waarschijnlijk het is dat een gedaagde vervalt in recidivisme[15], artsen kunnen ze gebruiken in hun diagnose en aanbevelingen voor behandeling[16], en politici en militairen kunnen erop vertrouwen bij het nemen van strategische beslissingen en oorlogshandelingen.[17]

Moeten we bereid zijn te vertrouwen op de voorspellingen van systemen waarvan de interne logica niet wordt prijs gegeven aan degenen die ermee werken en erdoor worden beïnvloed? En zelfs als deze instrumenten statistisch effectief blijken te zijn en dus goed genoeg om er goede zaken mee te doen, zou het eerlijk zijn en moreel, wettelijk en politiek aanvaardbaar onze beslissingen te baseren op dit soort voorspellingen in het recht, onderwijs, geneeskunde, en oorlogvoering?

 

“With a little help from my friends”

 

The Social Dilemma laat ons achter met een onbeantwoorde vraag. Hoe kunnen we met de hedendaagse technologie een goed leven leiden? Het is verleidelijk om, net zoals in het geval van privacy, het probleem af te doen als een kwestie van individuele verstandigheid: gebruik de technologie verantwoord, richt de aandacht op waar het werkelijk om gaat. Maar kan dat? Interessant genoeg komen sommige van de populaire adviezen over hoe niet afgeleid te raken[18] en bewust om te gaan met digitale fora van dezelfde mensen die aanvankelijk de grote bedrijven hielpen, de gebruikers verslaafd te maken[19], door het ontwerpen van ‘plakkende’ toepassingen die de betrokkenheid van de gebruiker bevorderden. Dezelfde wetenschap waarvan we geacht worden er af en toe naar te kijken om ons individuele leven te regelen, wordt systematisch gebruikt door bedrijven met een miljardenomzet en hun leger aan experts om deze zelfregulering moeilijk te maken. Weinigen van ons kunnen dit spel individueel winnen. Bovendien is ons individuele digitale welzijn nauw verbonden met dat van anderen. In een digitale omgeving kan een enkel individu een onevenredige invloed hebben op ieders welzijn. De handelingen van een ‘trol’ kunnen een heel digitaal ecosysteem vergiftigen. Dit betekent dat het gezond houden van een online ecosysteem van het grootste belang is. Individueel digitaal welzijn kan alleen maar ontstaan door collectief digitaal welzijn. We kunnen alleen maar op onze digitale fora floreren als die ontworpen zijn om zorgzame en betekenisvolle menselijke relaties toe te staan en te bevorderen. Digitale verhoudingen kunnen heel belangrijk zijn. Het leven van velen van ons, niet alleen die van adolescenten, zou dramatisch verarmd zijn zonder dergelijke verhoudingen. Maar voor gezonde digitale verhoudingen is een gezonde digitale omgeving nodig.

 

Een digitaal Neurenberg?

 

De hoofdpersonen van The Social Dilemma zijn sommige van de bedenkers van de meest succesvolle en problematische technologieën van Google, Facebook en Twitter. Zij worden afgeschilderd als gewone, frisgewassen, empathische mensen met goede bedoelingen, verstrikt in een groter spel. Het zou niet verbazingwekkend zijn wanneer je, na het zien van de documentaire, meent dat je niet te streng zou moeten zijn in je oordeel over hen, en dat zij zelfs moeten worden vergeven voor het onheil dat zij hebben helpen aanrichten. ‘Wie had het kunnen weten?’, is hun herhaalde spijtige commentaar. Hoe dit ook zij (nou ja, sommigen hadden het kunnen weten, zie onder), als de ontwerpers niet verantwoordelijk zijn, wie dan wel? Want het is nog onwaarschijnlijker om de gebruikers verantwoordelijk te stellen, of de algoritmes. En managers van bedrijven zijn nou eenmaal ambitieuze, vaak inhalige ondernemers, die reageren op de prikkels van de economie en de markt. Zo kan men achterblijven met de idee van een wereld die wordt beheerst door onpersoonlijke krachten, zonder ruimte voor menselijk handelen. Maar dit is niet zo. Techniek is zeker het resultaat van ingewikkelde maatschappelijke processen, maar deze processen worden niet aangestuurd door geheimzinnige ondoorgrondelijke krachten. Zogeheten systemen met lerende machines mogen dan ‘autonoom’ zijn en ingewikkeld en onderdeel van een groot economisch spel, maar zij dienen maar al te zeer de al te menselijke waarden en belangen van grote bedrijven. Het ontkennen van menselijke verantwoordelijkheid in ingewikkelde processen en organisaties is een oud en bekend verschijnsel, denk maar aan de het beruchte ‘Ik voerde slechts bevelen uit’ van de nazi’s op het proces van Neurenberg, en de diagnose van Sartre van de onuitwisbare neiging van mensen om vragen naar de verantwoordelijkheid te ontwijken, en te ontkennen dat zij een keus hadden. Ook is het gangbaar in heel gewone gesprekken te praten over systemen en robots waarmee we ‘samenwerken’ als ‘teamgenoten’, met wie we een werkplek ‘delen’, die ‘antwoord’ geven op onze vragen. Dit leidt er op een vloeiende manier toe dat we denken dat we ook onze verantwoordelijkheid kunnen overhevelen naar machines. Maar dat is helemaal verkeerd: ethiek gaat over dr. Frankenstein, niet over zijn monster.[20]

 

De weg vooruit

 

Ethiek en techniek

 

En dan nu wat goed nieuws. Allereerst, er is heel wat academische kennis voorhanden over de digitale technologie, en het veld groeit voortdurend. Als een van de hoofdpersonen uit de Netflix documentaire The Social Dilemma zichzelf voorstelt als een ‘ethische ontwerper’ die zich inzet voor een humanitaire techniek,[21] zal dat veel kijkers verbijsterd hebben. In feite raakte de ethiek van de technologie pas zo’n vijf jaar geleden bekend bij het bredere publiek door de fictieve botsingen in Social dilemmas of self-driving cars[22] (daarom kon de titel van de documentaire u bekend voorkomen). Veel invloedrijke ontwerpers en computerwetenschappers hebben de ethiek van de (digitale) technologie pas de laatste jaren ontdekt, en onlangs hebben zelfs de reuzen van de technologie zelf enkele – vaak twijfelachtige – pogingen gedaan ethische commissies[23] en onderzoeksgroepen op te zetten.

Toch verscheen al in 1985 een themanummer over computerethiek van het tijdschrift Meta-philosophy. Het tijdschrift  Ethics and Information Technology werd opgericht in 1999. En overigens, onze afdeling Ethics and Philosophy of Technology aan de TU Delft[24] werd aan het begin van de jaren negentig opgericht, en telt meer dan dertig personeelsleden die onderzoek doen op het gebied van de ethiek van de techniek. De geschiedenis van de filosofie en sociologie van de techniek in bredere zin is zelfs ouder. Zij gaat terug tot ten minste de jaren vijftig, toen filosofen en sociologen zoals Martin Heidegger, Jacques Ellul, Herbert Marcuse, Hans Jonas, onder veel anderen, vanuit heel verschillende culturele achtergronden en taalgebieden en met heel uiteenlopende bedoelingen nadachten over de manier waarop de combinatie van wetenschappelijk en technologisch onderzoek presteerde. Gestimuleerd door impulsen van de industrie en de markt zou zij de altijd al bestaande menselijke technische activiteiten omvormen tot iets heel anders, met een diepe, langdurige uitwerking op de mensheid. We hebben deze zwakke signalen decennialang niet opgepikt, omdat we te druk waren met zwelgen in de zegeningen op korte termijn van de neoliberale marktideologie, de moreel blinde Sillicon-Valley-stijl van ondernemen die snel gaat, dingen eerst kapot maakt en zich dan verontschuldigt. Het wordt tijd dat we gebruik maken van de verzamelde wijsheid van de ethiek van de techniek.

 

Ontwerpen voor waarden

 

Veertig jaar geleden, in 1980, legde Landon Winner, een andere vroege filosoof en socioloog van de techniek, uit hoe zelfs het meest onnozele technische voorwerp, een viaduct over een weg, racistisch kan zijn, wanneer het is ontworpen met de bedoeling, of met het gevolg dat wordt voorkomen dat arme etnische minderheden een openbaar strand bereiken met het openbaar vervoer. Hij deed de iconische bewering: voorwerpen hebben een politiek standpunt.[25]  Het zou geen verrassing moeten zijn dat we vandaag de dag met recht kritiek hebben op virtuele assistenten als Alexa of Siri. Zij hebben tenslotte vrouwelijke stemmen, zullen nooit nee tegen je zeggen, zijn altijd beschikbaar, en bevestigen daarmee kwalijke, vrouwonvriendelijke stereotypen.[26] Onderzoekers op het gebied van Wetenschap en Techniek Studies hebben er de aandacht op gevestigd dat ook niet-digitale, ogenschijnlijk onnozele ‘dingen’ nooit alleen maar gereedschappen zijn die passief onze doelen uitvoeren, maar altijd ook onze ervaring van de wereld vormgeven, ons vermogen (of onvermogen) om te handelen en, uiteindelijk, onze waarden en doeleinden. De balans van deze traditie opmakend, en op een meer pragmatische en ontwerpgerichte wijze, ondersteunen de methoden van ‘waarden gevoelig ontwerpen’ of ‘ontwerpen voor waarden’[27] uitdrukkelijk de reflectie op ethische overwegingen en morele waarden in de vroegste stadia van het ontwerpen van techniek, in het bijzonder in termen van ontwerp en onderzoek. Zij streven ernaar te verzekeren dat ethische, maatschappelijke en juridische waarden en principes – eerlijkheid, privacy, verantwoordelijkheid, enzovoort – systematisch worden geïntegreerd in het ontwerp van systemen door middel van een ‘democratische’ interactie tussen ontwerpers, gebruikers, belanghebbenden, juridische experts, sociale wetenschappers en filosofen. Uiteindelijk hebben tegenwoordig veel mensen geen probleem, dit perspectief te aanvaarden met betrekking tot bijvoorbeeld de veiligheid van infrastructuur of van medicijnen, of, ten minste in theorie, tot de duurzaamheid van producten met het oog op het milieu. We zullen hetzelfde moeten doen met betrekking tot veel andere ethische en morele dimensies van (digitale) systemen. De Europese Unie onderschrijft de Verantwoorde Innovatie benadering[28] van de techniek al. Het is een grote uitdaging dit model van technologische ontwikkeling werkelijkheid te maken, en ervoor te zorgen dat het er ook op wereldschaal toedoet, waar andere modellen momenteel overheersend lijken: het marktgeleide Amerikaanse, en het door de staat beheerste Chinese model.

 

Alomvattend ontwerpen

 

Technologische systemen bestaan niet los van de menselijke en maatschappelijke context waarin zij zullen functioneren. Als we dus invloed willen uitoefenen, dan is het deze ingewikkelde interactie – de zogeheten socio-technologische systemen – die we dienen te herontwerpen. We moeten ons ontwikkelen in de richting van ‘alomvattend ontwerpen’: een holistische visie op het ‘systeem van systemen’, samengesteld uit morele overwegingen, instellingen, stimulerende structuren, en de ordening van de markt, procedures en individuen met hun eigen mentale toestanden die in deze contexten werken. Door deze benadering na te streven,[29] kunnen we ontsnappen aan de onjuiste opvatting van de onvermijdelijkheid van gecentraliseerde monopolistische technologische platforms, of het nu gaat om social media, marktplaatsen, of platforms voor de verspreiding van media. Alomvattend ontwerpen verwerpt ontwerpen van top-down platforms die bepaald gedrag voorschrijven aan hun deelnemers, en kan oplossingen voorstellen die zijn gericht op het eerlijk verdelen van risico’s, kosten en baten in deze grootschalige systemen. Samen met ‘ontwerpen voor waarden’-benaderingen, nodigt alomvattend ontwerpen ons uit te denken buiten de huidige techno-economische schil, en een digitale maatschappij voorbij de grote platforms te overwegen, gebouwd op open, democratische, en eerlijke technische infrastructuur.

 

Betekenisvolle menselijke controle

 

Ook het begrip van menselijke controle moet worden heroverwogen. Wat het betekent een technologie ‘te beheersen’ die het vermogen heeft te leren, veranderen, zich aan te passen aan het gedrag van verschillende gebruikers en aan verschillende omstandigheden, is ook een grote filosofische vraag, met grote implicaties voor de praktijk. Velen denken nog over beheersing in termen van apparatuur die naadloos reageert op het gedrag van sommige gebruikers of beheerders. Maar wat als de beoogde gebruikers niet in staat zijn goed met de ontwerpen om te gaan: mensen die verslaafd raken aan sociale netwerken, teveel vertrouwen op zelfsturende auto’s,[30] of op zelfstandige wapensystemen?[31] Wat als degenen die de technologie beheren niet willen meewerken aan of niet in staat zijn tot het sturen van de technologie in meer wenselijke richtingen?[32] ‘Betekenisvolle menselijke controle’[33] vraagt dat er ingewikkelde evoluerende mens-machine systemen zijn, die afgestemd blijven op de beweegredenen en capaciteiten van alle personen van belang in het systeem. Hoe dit te bereiken door middel van een betere technologie, maar ook betere politiek, organisaties en wetgeving is nog een andere grote praktische uitdaging voor de komende decennia.

 

Nieuw techniekonderwijs

 

Het is opmerkelijk om te zien hoe de hoofdpersonen van The Social Dilemma, voormalige insiders van de tech-industrie, zo verbijsterd zijn over de recente ontwikkelingen in de social media. Wie wist het? We hadden zo’n fantastisch plan, en kijk nu eens… Dat een dergelijk naïeve kijk op technologie in het hart van Silicon Valley bestond tijdens belangrijke jaren in de ontwikkeling van de huidige overheersende technologieën, is zelfs meer zorgwekkend dan verrassend. Het betekent dat belangrijke spelers in deze historische ommekeer eenvoudig voorbijgingen aan de fundamenten van de ethiek van de technische opleiding: technologieën zijn tweeslachtig. Dit is een pijnlijke alarmbel. Studenten in een technische opleiding moeten zich ervan bewust zijn dat de technologieën die zij ontwerpen en maken sommige waarden zullen voeden, maar mogelijk andere ondermijnen of schaden. In Nederland, bijvoorbeeld, hebben de vier leidende technische universiteiten (Delft, Eindhoven, Twente en Wageningen) dit besef in het hart van hun onderwijsopvatting[34] gebracht, en zij streven ernaar onderwijs in de ethiek een verplicht onderdeel te maken voor studenten aan een technische opleiding. Vertrekkend vanuit de vooronderstelling van tweeslachtigheid, richt deze onderwijsopvatting zich op het voeden van de morele verbeelding om conflicterende waarden op te lossen, en op het verhogen van gevoeligheid in het herkennen van mogelijke valkuilen van de technologie en manieren die te verkleinen of beheersen, maar ook om het volledige potentieel te gebruiken die de techniek heeft als maatschappelijk nuttige onderneming. Wanneer studenten in de techniek deze lessen krijgen onderwezen voordat zij grote maatschappelijke verantwoordelijkheden op zich nemen, kunnen we hen ten minste ondersteunen opdat zij niet vallen voor de naïeve opvatting die het maken van ingewikkelde socio-technische systemen versimpelt, en hun successen ziet als enkel het resultaat van goede wil en technische bekwaamheid.

 

Het wereldperspectief

 

Ook de goede bedoelingen van de auteurs van dit stuk zijn waarschijnlijk niet genoeg. Zorgen over digitale technologieën worden ingewikkeld wanneer hun dimensies op wereldschaal in beschouwing worden genomen, want digitale platformen opereren over verschillende culturen en landen heen. Facebook, Instagram en dergelijke ontstonden in de Verenigde Staten maar worden nu wereldwijd gebruikt. Kritiek op de sociale media moet nu hoofdzakelijk komen van mensen zoals wij: westers, hoog opgeleid, geïndustrialiseerd, rijk en democratisch,[35] buitenbeetjes met een verscheidenheid aan gedrags- en psychologische dimensies. Zijn de ethische kwesties die hier worden opgeworpen representatief? Weerspiegelen zij de wijzen waarop het grote publiek wereldwijd denkt over social media? Een hoog niveau van samenwerking en een rechtstaat zijn kenmerkend, maar ook enigszins uniek voor dit deel van de wereld[36] en het resultaat van technieken die in duizenden jaren zijn ontstaan en verfijnd. Aangezien individuen uit Azië en het zuidelijk deel van de wereld een nog groter en groeiend percentage van de gebruikers van internet vormen, is het belangrijk niet alleen de ethische, maar ook de culturele dimensies van de ethiek van techniek te overdenken. Een richting die helpt is het gebruiken van niet-westerse filosofie om ethische kwesties te overdenken, bijvoorbeeld hoe Confuciaanse opvattingen van het zelf van betekenis zijn voor ideeën over voortplantingstechnieken[37], of hoe opvattingen over collectieve verantwoordelijkheid kunnen worden toegepast op Artificial Intelligence.[38]  Een andere richting is het ontwikkelen van onderwijs in de ethiek dat zich richt op de wereldschaal,[39] bijvoorbeeld door inzichten uit de culturele en morele psychologie[40] erin te betrekken, die eraan bijdragen dat mensen uit de praktijk een beter begrip krijgen van, en beter kunnen antwoorden op de uitdagingen die zij vermoedelijk zullen tegenkomen in de steeds sterker culturen overschrijdende, internationale omgeving van de hedendaagse techniek. In ieder geval betekent dit zich begeven buiten de conceptuele beperkingen en veronderstellingen van alleen de westerse (hoog opgeleide, geïndustrialiseerde, rijke en democratische) filosofie, psychologie en cultuur.

 

Dit artikel is geschreven door leden van de Digital Philosophy Group van de sectie Ethiek en Filosofie van de Techniek van de TU Delft.

 

Reageren? Mail (in het Engels!) naar: F.SantoniDeSio@tudelft.nl

 

(Vertaling: Herman Simissen)

 

[1] Daniel J. Solove, ‘’I’ve Got Nothing to Hide’ and Other Misunderstandings of Privacy’, San Diego Law Review 44 (2007), 745-772.

[2] Linnet Taylor, Luciano Floridi en Bart van der Sloot (red.), Group privacy. New Challenges of Data Technologies, Springer International Publishing,  Berlijn etc. 2017.

[3] Alvin Chang, ‘The Facebook and Cambridge Analytica scandal, explained with a simple diagram’, https://www.vox.com/policy-and-politics/2018/3/23/17151916/facebook-cambridge-analytica-trump-diagram

[4] Nicholas Confessore, ‘Cambridge Analytica and Facebook: The Scandal and the Fallout So Far’, in: The New York Times, 4 april 2018, https://www.nytimes.com/2018/04/04/us/politics/cambridge-analytica-scandal-fallout.html?searchResultPosition=1

[5] Sarah E. Needleman en Georgia Wells, ‘Twitter, Facebook and Others Silenced Trump. Now They Learn What’s Next’, in: The Wall Street Journal, 10 januari 2021, https://www.wsj.com/articles/twitter-facebook-and-others-silenced-trump-now-they-learn-whats-next-11610320064

[6] ‘Could Google really leave Australia?’, BBC News, 22 januari 2021, https://www.bbc.com/news/technology-55766429

[7] Philip Pettit, Republicanism. A Theory of Freedom and Government, Oxford University Press, Oxford etc. 1999.

[8] Eszter Bokányi en Anikó Hannák, ‘Understanding Inequalities in Ride-Hailing Services Through Simulations’, in: Scientific Reports 10 (2020), article 6500,

[9]Siladitya Ray, ‘Amazon Charged With EU Antitrust Violation For Allegedly Using Sellers’ Data To Compete Against Them’, Forbes, 10 november 2020.

[10]Ryan Calo en Alex Rosenblat, ‘The takimg economy: Uber, information, and power’, in: Columbia Law Review 117 (2017), nr. 6, blz. 1623-1690.

[11] Arvind Narayanan, Arunesh  Mathur, Marshini  Chetty en Mihir  Kshirsagar, ‘Dark Patterns: Past, Present, and Future: The evolution of tricky user interfaces’, in: Queue 18 (2020), No. 2,.

[12] https://www.universiteitvannederland.nl/colleges-en/how-can-we-keep-robots-under-control.

[13] Riccardo Guidetti e.a., ‘A Survey of Methods for Explaining Black Box Models’, in: ACM Computing Surveys 51 (2019), nr. 5,  blz. 1-42.

[14] ‘Ofqual’s A-level algorithm: why did it fail to make the grade?’, in: The Guardian, 21 augustus 2020.

[15] Jeff Larson, Surya Mattu, Lauren Kirchner en Julia Angwin, ‘How We Analyzed the COMPAS Recidivism Algorithm’, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm, 23 mei 2016.

[16] https://www.ibm.com/watson-health.

[17] https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-killer-robots.

[18] Nir Eyal, Indistractable. How to Control Your Attention and Choose Your Life, Bloomsbury, Londen 2019.

[19] Nir Eyal, Hooked: How to Build Habit-Forming Products, Portfolio, Londen 2014.

[20] ‘The Guardian view on the ethics of AI: it’s about Dr Frankenstein, not his monster’, The Guardian, 12 juni 2018.

[21] https://www.humanetech.com/.

[22] Jean-François Bonnefon e.a., ‘The social dilemma of autonomous vehicles’, in: Science 352, Issue 6293, 24 Jun 2016, blz. 1573-1576.

[23] Jacob Metcalf, Emanuel Moss, en Danah Boyd, ‘Owning Ethics: Corporate Logics, Silicon Valley, and the Institutionalization of Ethics’, in: Social Research: An International Quarterly 82, Issue 2, Summer 2019, blz. 449-476.

[24] https://www.tudelft.nl/en/tpm/about-the-faculty/departments/values-technology-and-innovation/sections/ethicsphilosophy-of-technology/.

[25] L.  Winner, ‘Do Artifacts Have Politics?’, in: Daedalus, Modern Technology: Problem or Opportunity? 109, (№1) (Winter, 1980), blz. 121–136.

[26] Dr. Olya Kudina, ‘Hey Siri, why are my kids screaming at you?’, https://www.universiteitvannederland.nl/colleges-en/hey-siri-why-are-my-kids-screaming-at-you.

[27] Jeroen van den Hoven, Pieter E. Vermaas en Ibo van de Poel (red.), Handbook of Ethics, Values, and Technological Design. Sources, Theory, Values and Application Domains, 3 delen, Springer, Dordrecht z.j.,

[28] Jack Stilgoe, Richard Owen, en Phil Macnaghten, ‘Developing a framework for responsible innovation’, in: Research Policy 42, Issue 9 (November 2013), blz. 1568-1580.

[29] Zie ‘1st International Workshop on Distributed Infrastructure for Common Good’, https://dicg2020.github.io/.

[30] ‘Uber’s self-driving operator charged over fatal crash’, BBC, 1 september 2020, https://www.bbc.com/news/technology-54175359.

[31] https://www.stopkillerrobots.org/.

[32] Jack Stilgoe, ‘Who Killed Elaine Herzberg? Who is ultimately to blame in the first self-driving car fatality — the technology, the victim, the safety driver, Uber, or the American city itself?’, https://onezero.medium.com/who-killed-elaine-herzberg-ea01fb14fc5e , 12 december 2019.

[33] Filippo Santoni de Sio en Jeroen van den Hoven, ‘Meaningful Human Control over Autonomous Systems: A Philosophical Account’, in: Front. Robot. AI, 28 februari 2018.

[34] ‘teaching ethics and philosophy of technology to engineering students’, https://www.tudelft.nl/ethics/ .

[35] In het Engels: Western Educated Industrialized Rich and Democratic, afgekort als WEIRD. Zie: Joseph Henrich, Steven J. Heine en Ara Norenzayan, ‘The weirdest people in the world?’, in: Behavioral and Brain Sciences 33 (2010), nr. 2-3, blz. 1-75.

[36] Benedikt Herrmann, Christian Thöni en Simon Gächter, ‘Antisocial Punishment Across Societies’, in: Science  319, Issue 5868, 7 maart 2008, blz. 1362-1367.

[37] Ruiping Fan, ‘A Confucian reflection on genetic enhancement’, in: American journal of Bio-ethics 10(4) 2010, blz. 62-70.

[38] Pak-Hang Wong en Tom Xiaowei Wang (red.), Harmonious Technology: A Confucian Ethics of Technology, Routledge, Abindon en New York, 2020.

[39]Heinz Luegenbiehl en Rockwell Clancy, Global Engineering Ethics, Butterworth-Heinemann, Londen 2017.

[40] Rockwell F. Clancy, ‘The Development of a Case-Based Course on Global Engineering Ethics in China’, in: International Journal of Ethics Education volume 6 (2021), blz. 51–73.