AI-experts waarschuwen voor de gevolgen van te snelle ontwikkeling

Het is al mei en dit wordt mijn eerste blog van dit jaar. Ik vind het eigenlijk wel toepasselijk dat mijn eerste blog van dit jaar over AI gaat, Artificial Intelligence, oftewel Kunstmatige Intelligentie. Want eigenlijk gaat dit jaar tot nu toe eigenlijk alleen nog maar dáár over. En dan kun je het over stikstof hebben, over de inflatie en over klimaatverandering, maar dit onderwerp benadert wat mij betreft de laatstgenoemde en gaat daar ook nog eens invloed op hebben. Want sinds in november 2022 het taalmodel GPT 3.5 (GPT staat voor Generative Pre-Trained Transformer) voor het grote publiek toegankelijk is gemaakt via ChatGPT, staat de wereld op zijn kop en gaan de ontwikkelingen razendsnel.

Wat je in het begin vooral zag was welke mogelijkheden het allemaal gaf. Ondernemers buitelden over elkaar heen om te laten zien hoe het hun vakgebied zou veranderen, of begonnen allerlei workshops, webinars en andere trainingen te geven over hoe je het kunt gebruiken.

Natuurlijk is het interessant om te zien welke mogelijkheden het allemaal biedt. De ‘prompts’ vliegen je om de oren (de vragen die je stelt om de gewenste informatie te krijgen). “Noem de 5 belangrijkste trends op het gebied van personal productivity”, “Schrijf een verhaaltje voor het slapengaan in de stijl van Annie M.G. Schmidt voor een 5-jarige over een eekhoorn”, “Maak een samenvatting van de transcriptie van deze meeting en benoem alle actiepunten die zijn besproken”, e-mails, recepten, trainingsschema’s, voedingsschema’s, een sollicitatiegesprek voeren voor een specifieke functie, een gesprek voeren als een financieel adviseur, life coach, etc. om een specifiek probleem aan te pakken, programmeercode schrijven, bugs fixen in programmeercode, en dan noem ik echt alleen nog maar de basics van wat er mogelijk is.

Ook als onderwijskundige kan het me enorm helpen, want het kan bijvoorbeeld toetsvragen schrijven, beoordelingscriteria, didactische werkvormen en pas geleden hoorde ik dat het gebruikt was om de lesprogramma’s van het eerste jaar van twee opleidingen samen te smelten tot één gezamenlijk programma.

Hoe werkt een ‘Generative AI’ zoals ChatGPT?

In deze presentatie van de Hogeschool van Amsterdam wordt vrij duidelijk uitgelegd hoe zo’n taalmodel werkt. Deze presentatie werd overigens gehouden op 24 januari van dit jaar, dus nog voordat GPT 4 uitkwam, de nieuwe versie die nog veel beter is. Maar de uitleg zelf is erg verhelderend.

Al die mogelijkheden zijn mooi maar….

Zoals je in de bovenstaande video zag, zijn er ook allerlei problemen die het met zich meebrengt. Naast de foutieve informatie kan het ook discrimineren; er zit een bias in (vooringenomenheid, vooroordeel, beïnvloedende factor(en) waarmee geen rekening is gehouden). Er wordt ook verwacht dat er heel veel banen door verloren zullen gaan en dat het niet transparant is over waar het zijn informatie vandaan haalt. En qua onderwijs hebben we (naast alle handige dingen waar je het als docent voor kunt gebruiken) natuurlijk een groot probleem met de essays die als toetsvorm worden gebruikt en die nu studenten nu heel eenvoudig met behulp van ChatGPT kunnen schrijven, en dat geldt ook voor geloofwaardige reflectieverslagen. Bovendien moeten opleidingen ook kijken naar de impact voor hun curriculum (lesprogramma) en zich de vraag stellen: ‘Waartoe leiden wij op?’.

Daarnaast is er ook nog de vraag welke impact dit heeft op het leerproces van studenten. Want dat begint bij het stellen van een vraag en er vervolgens stap voor stap achter komen hoe iets in elkaar zit. Maar als ChatGPT je direct het antwoord geeft, wat blijft er dan over van dat leerproces waarin je stap-voor-stap meer inzicht krijgt?

En er is nog meer aan de hand

Maar er is nog iets anders aan de hand en daar wordt nog niet zoveel over gesproken. En nee, daarbij gaat het niet om de ‘AGI apocalypse’ dat we een Artificial General Intelligence bouwen die op een gegeven moment slimmer wordt dan wijzelf en die door een opdracht die wij het geven tot de conclusie komt dat de mensheid vernietigd moet worden.

Dat laatste is zeker een reëele zorg, maar er gebeurt ook iets anders waarover we ons grote zorgen moeten maken en dat is de enorme snelheid waarmee AI-functies momenteel geïmplementeerd worden zonder dat er goed getest is. Wat je misschien ziet in de voorbeelden, is dat het behoorlijk persoonlijk kan worden. Life coaching, sollicitatiegesprekken, financieel advies. En daarin schuilt momenteel een behoorlijk gevaar, waar steeds meer AI experts voor waarschuwen. De verwachting is namelijk dat iedereen straks z’n eigen ‘AI-hulpje’ gaat kiezen en het gaat er momenteel om wie de beste tool daarvoor kan bieden.

Waar het bij social media ging om onze aandacht, gaat het nu om het beantwoorden van álle vragen waar iemand tegenaan loopt, niet alleen in het werk, maar ook privé. En wie is er gemakkelijker om tegen te ‘praten’ dan iemand die overal een antwoord op heeft, of tips en aanwijzingen kan geven? Dat is de race waarin de grote techbedrijven momenteel in verwikkeld zijn. En het is een ‘race to the bottom’ geworden waarin AI-bedrijven gevangen zitten, waardoor AI-functies momenteel veel te snel geïmplementeerd worden, zonder dat er voldoende tijd wordt genomen om ze te testen.

Must-see: The A.I. Dilemma

Ik kreeg dit inzicht door een zeer interessante en belangrijke presentatie die hierover is gegeven door Tristan Harris en Aza Raskin en die te zien is in de onderstaande video ‘The A.I. Dilemma’. Ik vind dit een must-see voor iedereen. Ze laten zien dat er ónder de sprankelende laag van alle mogelijkheden én onder de daaronderliggende laag van wat zij ‘oppervlakkige problemen’ noemen, zoals de genoemde AI-bias, een nog veel dieper probleem ligt. Want doordat nieuwe functies nu zo snel geïmplementeerd worden, zonder dat ze eerst voldoende zijn getest, zijn WIJ momenteel met z’n allen de ‘live-proefkonijnen’, terwijl de AI-experts zelf niet eens goed kunnen volgen welke kennis de AI al wel heeft en welke niet. Het is een presentatie van een uur, maar het is echt de moeite waard om hem helemaal te kijken (niet alleen luisteren!). Het laat je ineens heel anders kijken naar alle ontwikkelingen.

Tristan Harris tijdens zijn presentatie van 'The A.I. Dilemma'

Een aantal andere ‘mind-blowing’ dingen die in de presentatie genoemd worden:

  • Tot 2017 werd AI ontwikkeld in verschillende vakgebieden, maar vanaf het moment dat ze al deze vakgebieden allemaal als ‘taal’ zijn gaan zien en er één groot taalmodel van hebben gemaakt, werkten ze ineens allemaal aan hetzelfde en gingen de ontwikkelingen in een gigantische versnelling.
  • AI kan MRI-scans interpreteren. Op basis van een MRI-scan kan het zien wat jij op dat moment zag (of droomde…).
  • Doordat je met AI iemands stem kunt repliceren met slechts een opname van 3 seconden, lijkt verificatie via de stem wel verleden tijd.
  • TikTok zou filters van (bekende) personen (bijv politici) kunnen implementeren zodat iedereen er filmpjes mee op kan nemen en ze alles kunnen laten zeggen. Deze video’s gaan eenvoudig viral en zullen een hoop wantrouwen creëren, wat funest kan zijn voor de democratie.
  • De taalmodellen kunnen hun eigen training data genereren.
  • Deze taalmodellen leren momenteel al nieuwe dingen zonder dat mensen het door hebben.

Oproep tot gesprek

Harris en Raskin roepen op tot een gesprek tussen de belangrijkste spelers om met elkaar tot afspraken te komen. Gisteren was er een gesprek in het Witte Huis met in elk geval een aantal belangrijke spelers aan tafel, zoals Microsoft, Alphabet (Google), OpenAI en Anthropic (van voormalig medewerkers van OpenAI). De maatregelen die daaruit naar buiten zijn gekomen heb ik eerlijk gezegd nog niet gelezen (en dan zou ik het nog niet kunnen beoordelen), maar volgens beleidsexperts (zie ook hieronder) stellen ze nog niet veel voor. Maar ik ben eigenlijk wel blij dat ze in elk geval samen om tafel hebben gezeten. Hopelijk gaat dat de komende tijd vaker gebeuren, en waarschijnlijk moet in elk geval China daar ook bij, hoe onwaarschijnlijk dat ook klinkt. En ik kan me ook voorstellen dat ze nog niet alles naar buiten brengen dat besproken is. Wie weet zijn er al een aantal goede aanzetten van spelregels uitgewisseld om meer openheid en meer controle te bouwen in het proces en gaan ze nu kijken hoe ze die in hun processen kunnen implementeren, voordat ze ermee naar buiten komen. Dat hoop ik dan maar 🙏.

‘Can we govern AI?’

In de EU wordt overigens al een aantal jaren gewerkt aan de ‘AI Act’ en deze was eigenlijk bijna klaar, maar toen kwam dus ChatGPT, waardoor de afronding van deze wet nog even op zich laat wachten. Wie hier veel mee bezig is, is Marietje Schaake, die zich als EU-parlementslid van D66 onder andere heeft beziggehouden met onderwerpen rondom digitalisering, auteursrechten, open internet, internet governance en digitale (mensen)rechten. Inmiddels is zij directeur internationaal beleid bij het Cyber Policy Center van Stanford Center en medewerker van het Stanfords Institute for Human-Centered AI. In de podcast ‘Can we govern AI?’ (ook gewoon te vinden in je podcast app door te zoeken naar de podcast ‘Your Undivided Attention’) werd zij geïnterviewd door Tristan Harris (één van de presentatoren van bovenstaande video). Ook dit is een bijzonder interessant gesprek over de uitdagingen die dit geeft voor regulering door de overheid, maar ook de mogelijkheden die er al zijn: “It certainly doesn’t help to assume complexity makes it impossible.”

8 jaar geleden

En wat ik deze week ook nog tegenkwam (als reactie op een LinkedIn-post waarin Rutger Bregman ook de video van de AI Dilemma deelde), is deze video van 8 jaar geleden waarin Nick Bostrom zich afvraagt wat er gebeurt als onze computers slimmer worden dan wijzelf?

AI Godfather verlaat Google om te waarschuwen voor AI

Tot slot deze korte video van Geoffrey Hinton, die wordt omschreven als de Godfather of AI. Hij vertrok deze week bij Google om als buitenstaander te kunnen waarschuwen voor de gevaren van AI: “Mensen leren elk voor zich en wisselen op diverse momenten delen van hun kennis met elkaar uit. Bij een AI heb je ook verschillende kopieën die elk op zich iets anders kunnen leren, maar de kennis die zij vergaren wordt onmiddellijk en volledig in het hele systeem gedeeld waardoor de ontwikkeling van hun kennis veel sneller gaat.”

AI Godfather Geoffrey Hinton who left Google to warn about AI

En hier is nog een link naar een kort interview dat hij had met CNN.
Het is veelzeggend denk ik, hoe activistisch AI experts momenteel zijn. Ik ben ontzettend benieuwd waar dit toe zal leiden. Mocht je trouwens geïnteresseerd zijn in een inkijkje van het werk van deze Geoffrey Hinton, dan vind je hier ook nog een interessante video van een aantal maanden geleden

Tot zover, voor nu

Het is een veel groter blog geworden dan ik eigenlijk voor ogen had, maar ja, dat komt natuurlijk omdat ik zo lang gewacht heb met schrijven. Daardoor was het verhaal dat in mijn hoofd zat al zo veel groter dan wanneer ik bijvoorbeeld in januari was begonnen met de eerste video van de Hogeschool van Amsterdam, of met mijn eigen eerste contact met ChatGPT. Maar ik kon het ook niet opknippen in twee of meer blogs. Dat heb ik eerder wel eens gedaan als een blog te lang werd, maar bij dit onderwerp waar de ontwikkelingen zó snel gaan, leek me dat toch niet zo handig.

Het is ook niet zo dat ik voortaan alleen nog maar hierover blog. Terwijl al dit gaande is probeer ik ook maar gewoon mijn gedachten bij mijn werk te houden, leuke wandelingen te maken zoals vanmorgen met een vriendin, of lekker te gaan hardlopen, of me te verdiepen in andere interessante onderwerpen. Gewoon alsof er niets aan de hand is. 😎

Header photo by Sanket Mishra on Unsplash

Leave a Reply

Your email address will not be published. Required fields are marked *

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

The reCAPTCHA verification period has expired. Please reload the page.

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Back to Top