Bloggers

Een overzicht van blogs geschreven door aanbieders die zich hebben aangesloten bij e-Learning.nl.


Van Wilfred Rubens (redactie) | 01-11-2023 | Article Rating | (0) reacties

Afspraken over het gebruik van ChatGPT (en aanverwante technologieën) binnen jouw organisatie

Ik heb gisteren tijdens AI-deas for learning van SBO een sessie verzorgd over het maken van afspraken, regels en richtlijnen binnen organisaties om op een verantwoorde manier gebruik te maken van generatieve AI-toepassingen zoals ChatGPT, Google Bard en MidJourney.

(Generatieve) AI-toepassingen kunnen fungeren als persoonlijk assistent van professionals en kan hen helpen het werk cognitief te versoepelen door het ondersteunen bij tal van taken (er zijn voorbeelden te over). Tegelijkertijd kleven er ook risico’s aan. Volgens mij moet je met elkaar afspraken maken, en regels en richtlijnen afspreken om die risico’s hanteerbaar te maken en de potentie te benutten.

Ik heb deelnemers gevraagd: Heeft jullie organisatie afspraken/richtlijnen over het gebruik van generatieve AI? Dit was de uitkomst:

Afspraken over gebruik generatieve AI

Vervolgens ben ik stil blijven staan bij de volgende risico’s (er zijn meer risico’s en beperkingen):

  • De output van generatieve AI is niet altijd correct of zelfs onzin. Je weet ook niet zeker wat er met de data gebeurd die je er instopt. Verder hebben ontwikkelaars zonder toestemming gebruik gemaakt van content van derden zoals schrijvers, en bevatten de taalmodellen veel bias. Je moet dus de output van generatieve AI nog kritischer beschouwen en meer beschouwen als een ‘halfproduct’ dat niet zonder meer kan worden gebruikt.
  • Het gebruik van generatieve AI vergt veel energie. Wees daarom terughoudend met het intensief en niet-functioneel gebruiken van generatieve AI.

Ik ben ook ingegaan op de relatie tussen AI en vertrouwen. Veel Nederlanders hebben betrekkelijk weinig vertrouwen in AI. Als mensen niet-correcte informatie gebruiken, als taalmodellen niet-correcte output hergebruiken, als mensen AI gebruiken om anderen woorden in de mond te leggen, enzovoorts dan kunnen we zelfs te maken krijgen met een situatie waarin we veel van wat we lezen, horen en zien niet meer kunnen vertrouwen.

Het maken van interne afspraken, richtlijnen en regels met betrekking tot:

  • De input (o.a. privacy, bedrijfsgevoelige informatie, prompts).
  • Het beschouwen van de output als ‘half product’.
  • Het checken van de inhoud (op basis van ‘vakkennis’).
  • Het transparant zijn over het gebruik.
  • Het laten beoordelen door mensen.
  • Het beperken van energieverbruik.

is volgens mij daarom van belang.

Ik heb verschillende voorbeelden van dergelijke afspraken laten zien, en heb de aanwezigen volgens eigen afspraken/regels/richtlijnen laten formuleren en bediscussiëren.

Dit zijn de afspraken/regels/richtlijnen die de deelnemers hebben geformuleerd: https://www.te-learning.nl/blog/wp-content/uploads/2023/10/Afspraken-regels-en-richtlijnen-gebruik-Generatieve-AI.pdf

Hier vind je mijn slides: https://www.te-learning.nl/blog/wp-content/uploads/2023/11/AfsprakenmakenovergebruikChatGPT.pdf

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

The post Afspraken over het gebruik van ChatGPT (en aanverwante technologieën) binnen jouw organisatie first appeared on WilfredRubens.com over leren en ICT.
Lees het hele artikel


Hoe waardeert u deze bijdrage?




Reacties

Plaats hieronder uw reactie.

Naam (verplicht)

E-mail (verplicht)

CAPTCHA Afbeelding
Voer de hierboven staande code in: