Bloggers

Een overzicht van blogs geschreven door aanbieders die zich hebben aangesloten bij e-Learning.nl.


Van Wilfred Rubens (redactie) | 14-09-2021 | Article Rating | (0) reacties

Twee voorbeelden van een kwalijk gebruik van AI

Kunstmatige intelligentie (AI) is alomtegenwoordig en heeft ook de potentie om dienstbaar te zijn aan de mensheid. Tegelijkertijd kent deze ontwikkeling ook een aantal schaduwkanten. Dat blijkt bijvoorbeeld uit onderstaande twee voorbeelden.

Deep fake‘ is de verzamelnaam voor software waarmee je nep-video’s, nep-geluidsbestanden en ook nep-teksten kunt maken. Op die manier kun je bijvoorbeeld een politicus uitspraken laten doen die deze politicus niet heeft gedaan. Als je goed kijkt, kun je gelukkig nog zien dat een video nep is. Renee Diresta schrijft in Wired echter dat AI-gegenereerde teksten veel lastiger van echte teksten te onderscheiden zijn.

Het wordt steeds makkelijker om machines teksten te laten schrijven die nauwelijks van teksten geschreven door mensen te onderscheiden zijn. AI-gegenereerde video’s zijn gebaseerd op bestaande video’s. Dat helpt bij het onderscheiden van ‘nep’ van ‘echt’. Bij tekst is daar geen sprake van. Daarbij maakt het nogal wat uit of je AI gebruikt voor feitelijke en eenvoudig te verifiëren beschrijvingen, of voor opiniërende artikelen en commentaren.

Volgens de auteur hebben ondetecteerbare nepteksten – vermomd als normaal geklets op Twitter, Facebook, Reddit en dergelijke – de potentie om zeer subtiel, overheersend en kwaadaardig te zijn. Je kunt hiermee een mening van een fictieve meerderheid creëren of een hausse aan nep-commentatoren ontketenen, zonder veel kans dat je er achter komt dat sprake is van een geraffineerde beïnvloedingscampagne.

Pervasive generated text has the potential to warp our social communication ecosystem: algorithmically generated content receives algorithmically generated responses, which feeds into algorithmically mediated curation systems that surface information based on engagement.

Meet the Secret Algorithm That’s Keeping Students Out of College is de tweede kritische bijdrage over AI. Dit artikel uit Wired gaat over de vervanging van een examen voor het Internationaal Baccalaureaatsprogramma door een algoritme. Dit examen wordt normaliter gebruikt voor toelating tot universiteiten. Dankzij COVID-19 kon dit examen niet worden afgenomen. Daarom is de organisatie achter het Internationaal Baccalaureaatsprogramma een computerprogramma gaan gebruiken dat gebruik maakte van signalen, zoals de cijfers van een lerende voor opdrachten, cijfers van eerdere lerenden op hun school en historische IB-resultaten van de school van de lerende. Op basis hiervan voorspelde het computerprogramnma wat een lerende gescoord zou hebben op het examen.

Veel ouders, lerenden en docenten van middelbare scholen hebben bezwaar aangetekend tegen deze manier van toelaten. Er worden bijvoorbeeld vraagtekens gesteld bij het algoritme dat wordt gebruikt. Critici wijzen op zwakheden van deze aanpak en op het risico van vooringenomenheid. Zij hekelen het gebrek aan transparantie bij een systeem op basis waarvan beslissingen met vergaande consequenties worden genomen. Het computerprogramma zou overhaast zijn ontwikkeld, en onvoldoende zijn getest. Ook zouden studieresultaten tijdens de Coronacrisis een vertekend beeld geven.

De stichting achter het IB Diploma Programme weigert vragen over het systeem te beantwoorden. Zij verdedigen zich door te zeggen dat de uitkomsten getoetst zijn aan de resultaten van vijf jaar geleden. Ook kunnen lerenden -tegen betaling- in beroep gaan tegen de uitslag.  De stichting heeft samenvattende statistieken vrijgegeven waaruit blijkt dat de gemiddelde score van dit jaar iets hoger was dan die van vorig jaar.

 

The post Twee voorbeelden van een kwalijk gebruik van AI first appeared on WilfredRubens.com over leren en ICT.
Lees het hele artikel


Hoe waardeert u deze bijdrage?




Reacties

Plaats hieronder uw reactie.

Naam (verplicht)

E-mail (verplicht)

CAPTCHA Afbeelding
Voer de hierboven staande code in: