wetenschap • tech • gezondheid • geld

Grenzenloos

Yandex.com, de Russische Google, biedt ook landkaarten. Maar zonder landsgrenzen. Nergens. Op geen enkel continent. Sinds juni vorig jaar. Waarom? Het bedrijf, dat voornamelijk wordt gerund vanuit Moskou maar onder een Nederlandse NV valt, probeert misschien te schipperen tussen de baas in het Kremlin (die bepaalde grenzen wil veranderen) en de EU (die graag bestaande grenzen gerespecteerd ziet). Bij de aankondiging zeiden woordvoerders dat landsgrenzen voor de gebruikers van Yandex niet zo belangrijk zijn. (tip F. van Westrhenen)


Kunnen we dit bevatten?

Columnist Ezra Klein probeert de ontzaglijkheid van kunstmatige intelligentie in woorden te vangen. Dat is niet makkelijk. Wij verwachten dat morgen ongeveer hetzelfde zal zijn als vandaag. Maar dat is een luxe die we ons niet meer kunnen permitteren, zegt hij. Dit gaat zo snel, dat de wereld over 20 jaar niet herkenbaar zal zijn. ‘We begrijpen deze systemen niet, en het is niet zeker of we dat wel kunnen. (ja, we weten wel hoe het werkt, maar:) ‘Als je alles uitprint dat gebeurt tussen input en output, dan zou dat neerkomen op miljarden rekenkundige handelingen. Dat is een ‘verklaring’ die niet te begrijpen is.’

‘Dat ‘denken’ – bij gebrek aan een beter woord – is volkomen onmenselijk, maar we hebben het geleerd om het zo menselijk mogelijk te presenteren. En hoe onmenselijker het wordt (hoe meer verbindingen, sommetjes, stapjes) hoe menselijker het lijkt.’

Hij spreekt ontwikkelaars in San Francisco, die beseffen dat ze bezig zijn iets te scheppen dat mogelijk ontembaar is. Tien procent zegt in een peiling dat AI de mensheid zou kunnen uitroeien. Maar wat moet je anders? China is net zo hard bezig om AI’s te ontwikkelen.


AI helpt leren

‘Trellis’ is een toepassing van de AI-fabriek OpenAI die helpt ingewikkelde boeken te begrijpen. Een soort bijlesleraar. Klik op een alinea, of een zin, die je niet begrijpt en je krijgt uitleg. Je kunt kiezen op welk niveau: lagere school, brugklas of eerstejaars student.


Schoner beton

Het maken van beton veroorzaakt 8% van wereldwijde CO2-emissies, vier keer zo veel als de hele luchtvaart. Beton bestaat uit zand, stenen, water en cement. Dat laatste, het bindmiddel, is verantwoordelijk voor 70% van die CO2-uitstoot. Om cement te maken moet je een oven tot 1450ºC verhitten, en dat doe je met fossiele brandstoffen. Bovendien is CO2 een bijproduct van het verhittingsproces. In Canada is een bedrijf genaamd Carbicrete bezig met het ontwikkelen van een product dat cement kan vervangen en geen CO2 afscheidt, maar integendeel absorbeert, en evenveel kost als cement.

Maar Carbicrete gebruikt de ‘slakken’ die afval zijn van staalproductie als vervanger van cement. Daarvan wordt jaarlijks maar 250 miljoen ton geproduceerd, terwijl er 4 miljard ton cement per jaar wordt verwerkt. Dit uit architectenblad Dezeen, dat nog wat andere alternatieven voor beton opsomt. Alle helaas nog in de experimentele fase.

Je kunt ook beton blijven gebruiken, maar 75% minder, door de constructie te veranderen:

foto: Acorn 


Het Technium

Lang interview met Kevin Kelly, oud-hoofdredacteur Wired, schrijver van levenslessen, regelmatig terugkerend in de Bicker (zie het archief). Hij is een techno-optimist.

Hij verzon de naam ‘the technium.’ Alle technologie die wij ontwikkelen is verbonden met, of afhankelijk van, andere technologie. ‘Je hebt een hamer nodig om een zaag te maken, en een zaag om een hamer te maken.’ Dit geldt voor alles wat wij verzinnen, en met elkaar vormt dat het kluwen genaamd ‘Het Technium.’

Pessimisten ‘zien dit systeem steeds sterker worden, en steeds minder afhankelijk van menselijk handelen. Maar waar ik het mee oneens ben, is dat dit technium de vijand is van de natuur, en specifiek, ons mensen.’

‘Deze technium is een geaccelereerde evolutie. (…) Onze technologieën zijn uiteindelijk niet de vijand van leven, maar een verlengstuk ervan dat het in staat stelt om sneller en meer opties en mogelijkheden te creëren.’

‘We zijn veel minder wantrouwig tegenover oude technologie dan nieuwe. Sociale media kunnen onwaarheden heel snel en heel breed verspreiden. Maar vergeleken met wat? De invloed op verkiezingen is veel minder dan die van ‘talk radio’ en kabelTV, waar nepnieuws welig tierde.’

Dan over kunstmatige intelligentie, AI:

‘We moeten ons voorbereiden op AI’s, meervoud. Er is geen monoliet. Er zullen duizenden soorten AI komen, die allemaal verschillende manieren van denken optimaliseren. De meeste zullen ‘dumbsmart’ zijn: heel goed in bepaalde dingen, behoorlijk dom in andere.’

‘Onze relatie met AI’s zal hetzelfde zijn als met partners, assistenten of huisdieren, niet als goden. De meest recente, primitieve AI’s zoals ChatGPT kun je het beste zien als stagiaires.’


Lezer J. Rademaker schrijft dat de Belastingdienst een soortgelijk systeem had, tot 2020. Van de website:  ‘Een van deze systemen was de Fraude Signalering Voorziening (FSV). De FSV werd gebruikt voor het registreren van risicosignalen. Uit onderzoek bleek dat het gebruik van dit systeem op verschillende punten niet voldeed aan de Algemene Verordening Gegevensbescherming (AVG). Daarom is de FSV op 27 februari 2020 uitgezet en daarna niet meer gebruikt.’

Het interview met Kevin Kelly geeft ook hier weer een nuttig inzicht:

‘Omdat AI’s worden getraind op gemiddeld mensenwerk, vertonen ze de vooroordelen, zwakheden, ‘biases’ en kwaadaardigheden van de gemiddelde mens. (…) Maar wij willen dat AI’s beter zijn dan wij! Minder racistisch, minder seksistisch, minder egoïstisch dan wij gemiddeld zijn. Het is NIET moeilijk om ethisch en morele richtlijnen in te programmeren, het betekent gewoon meer code. Het lastige is dat wij mensen geen consensus hebben over wat ‘beter dan wij’ is. Het probleem is niet de AI’s. Het probleem is dat ze de schijnwerper richten op onze oppervlakkige en inconsistente ethiek.’

Oftewel: garbage in, garbage out.


Ook niet bang

Al terugbladerend, op zoek naar Kevin Kelly in andere Bickers, kwam ik dit tegen uit 2017. Ook weer sterk beargumenteerd:

‘Intelligentie is niet ééndimensionaal, dus ‘slimmer dan mensen’ is een concept zonder betekenis. Mensen hebben geen brein dat voor alles gebruikt kan worden, en AI’s ook niet. Nabootsen van het menselijk denkproces is te duur. Dimensies van intelligentie zijn niet oneindig. En intelligenties zijn slechts één factor in vooruitgang. Denken is niet voldoende: natuurkundigen moesten nog steeds een Hadron Collider bouwen in Cern om te testen of hun theorie over de Higg’s Boson klopte.’


Niet bang voor AI

Mijn vrienden vragen: ‘Waarom ben ik niet doodsbang? Waarom onderschrijf ik nog steeds niet het Orthodoxe AI doemscenario, waarin een egoïstische AI vroeg of laat (waarschijnlijk vroeg) nanobots ontwerpt die zichzelf vermenigvuldigen en alle mensen over de hele wereld veranderen in plasjes ellende?’

Schrijft Scott Aaronson, theoretisch computer specialist, gespecialiseerd in quantum computing, veelschrijver, indrukwekkend cv (naar universiteit op 16, gepromoveerd op 23, MIT, U. of Texas, nu een jaar bij OpenAI). Als iemand het moet weten ….

Zijn antwoord bekijkt de vraag van verschillende kanten. Bijvoorbeeld: er zijn veel meer, en grotere bedreigingen voor de mensheid zoals klimaatverandering of kernoorlog. Of: je kunt beargumenteren dat AI al heeft bijgedragen aan de ondergang van de Amerikaanse democratie. Immers, zonder Facebook’s aanbeveling-algoritme was Donald Trump nooit president geworden. En hij herformuleert de vraag: ‘Gaat deze AI wedloop een rol spelen in de ondergang van de mensheid?’ ‘Ik geef dat een kans van 2%. Net zo veel als de kans dat AI de mensheid gaat redden.’ AI is een ding, de wereld is te complex om door één ding geregeerd te worden. Dus, zegt hij: gewoon doorgaan met AI research, maar wel extreem behoedzaam. (tip P. Vloemans)


Lezer J. van der Velde zegt over de bijdrage van gisteren ‘Soms heeft de koper gelijk’: ‘De beste overnames aller tijden? (…) Zijn het echt alleen maar Amerikaanse bedrijven die de beste overnames hebben gepleegd of heeft de ‘onderzoeker’ een Amerikaanse paardebril op? En rendement wordt volgens mij uitgedrukt in percentages, niet in absolute bedragen.’ En hij vraagt: moet je niet ook de periode die is verstreken sinds de overname meewegen?

Het grafiekje is inderdaad Amerika-centrisch. Dat is jammer. Maar de andere kritiek is terecht. Als je rendement uitdrukt in percentages, is bijvoorbeeld de aankoop van Maps door Google (400x de investering) veel ‘succesvoller’ dan Instagram door Facebook (175x). En inderdaad, de tijdsspanne is niet meegenomen.

Excuses dus. Had ik niet moeten overnemen.


'Verdenkingsmachine'

De software die ambtenaren in Rotterdam hielp om te beslissen welke uitkerings-ontvangers verdacht zijn, was volgebouwd met vooroordelen. Het algoritme was ‘getraind’ op 12.700 dossiers van mensen die door de gemeente in het verleden waren verdacht van fraude; de helft daarvan was onschuldig. Door deze groep te gebruiken – die is ontstaan door individuele, willekeurige keuzes van vervolgingsambtenaren – zijn vooroordelen vanaf het begin ingebakken. En omdat het een ‘zelflerend’ algoritme is (machine learning), worden die vooroordelen versterkt. Dat zegt tijdschrift Wired, dat samen met Lighthouse Reports middels een WOB-verzoek de code van het algoritme heeft gekregen, en vervolgens geanalyseerd. ‘Risico-score algoritmes krijgen vaak het verwijt dat ze niks anders doen dan vooroordelen in code te verpakken. Maar dat is moeilijk te bewijzen. Maar als je de code hebt, en de data waarmee hij werkt, kun je het proces (van de risico-analyse, dB) analyseren,’ schrijft Wired. Het noemt het algoritme ‘een verdenkingsmachine.’

Wired zegt dat het tientallen steden, in diverse landen, heeft benaderd die algoritmes gebruiken om bijstandsmisbruik op te sporen, en dat Rotterdam de enige was die  bereid was om de code aan de journalisten te geven.

Hoe werkt het? Er zijn 30.000 ontvangers van enige steun in Rotterdam. Slechts de meest riskante 10%, dus 3.000 mensen, loopt kans een bezoek van een inspecteur te krijgen. Hoe kom je in de top-10? Er zijn 315 variabelen, maar het algoritme is geïnstrueerd om bepaalde variabelen zwaarder te wegen als ze in combinatie met andere variabelen verschijnen. Als je een vrouw bent, als Nederlands niet je eerste taal is, als je net bent gescheiden na een lange relatie, als je kinderen hebt, of als de bezoekende ambtenaar vindt (subjectief) dat je niet hard genoeg naar werk zoekt, dan is die combinatie meestal genoeg voor een plek in de top 10%. Natuurlijk, discrimineren op basis van geslacht of etnische afkomst mag niet – maar is het illegaal om dit soort data aan een algoritme te voeren? ‘Nederlandse rechtspraak is op dit moment bezig dat te beslissen,’ zegt Wired.

Het artikel laat met veel voorbeelden zien hoe de software tot verkeerde conclusies leidt.

Het algoritme, ontwikkeld door Accenture, werd in 2017 door Rotterdam in gebruik genomen en in 2021 door de gemeente opgeschort.


Abonneer De Bicker

Vul hieronder uw e-mailadres in om u in te schrijven voor de nieuwsbrief
jamie@example.com
Abonneer