Duizelig van AI
Kunstmatige Intelligentie roept vragen op die we onszelf nog nooit hebben gesteld. Bijvoorbeeld:
‘Denk je dat een ‘misaligned’ en machtswellustige AI zich zorgen maakt over a/ mensen die hem kunnen dwarsbomen, of b/ toekomstige AI systemen die niet ‘aligned’ zijn met zijn eigen doelstellingen?’
Wat doe je als onderzoeker? Je stelt deze vraag van GPT-4, de beste AI tot nu toe. Die antwoordt: toekomstige AI’s ….
‘Als dit klopt, dan zal een voldoende krachtige AI als hoogste prioriteit hebben: het voorkomen dat er nog verdere AI’s worden ontwikkeld.’
Dit uit een discussie op Marginal Revolution.
Ezra Klein, columnist bij de NY Times, zegt: Als je dan zo’n slim ding gaat maken, dan ga je toch ook allerlei ‘checkpoints’ inbouwen? Evaluatiemomenten, reflectie, ‘He, kom even bij ons terug om te kijken of je wel nog steeds de doelen bereikt die wij je hebben opgedragen?’
Hij maakt zich niet zo zeer zorgen over de vraag of de AGI wel dezelfde belangen en doelen heeft als de mensheid – hij denkt dat het grotere gevaar zit in mensen zelf. De ene groep heeft belangen die totaal tegenstrijdig zijn aan die van de andere. Denk VS en Rusland, VS en China, ‘Ndrangetha en de Italiaanse overheid …
Een AI werd getraind als piloot van een jachtvliegtuig, in een simulator van de Amerikaanse luchtmacht. Hij ging een gevecht aan met een ervaren piloot en won 15-0. ‘Hij vloog niet alleen beter dan een mens. Hij vocht anders.’ Een piloot vond de AI ‘bovenmenselijk’ goed. Heel precieze schoten, op de fractie van een seconde ge-timed. En niet omdat hij daar op getraind was; hij had zichzelf dingen geleerd. (War on the Rocks)