U bent hier

Onderneming & Personeel
Werken met AI8. Risico’s, beperkingen en ethische dilemma’s8.2 Hallucinatie en betrouwbaarheid

8.2 Hallucinatie en betrouwbaarheid

Dit artikel is eerder verschenen als Themadossier HR Rendement
Publicatiedatum: maart 2024

Grote taalmodellen zijn getraind om op basis van hun database zeer overtuigende en vrij ‘menselijke’ teksten te maken. Maar ze hebben ook een manco.

8.2.1 Onverwachte verbanden

Door de werking van het algoritme, dat gebaseerd is op wiskunde en statistiek in plaats van op feitelijke kennis, kunnen taalmodellen feit en fictie door elkaar halen. Dat staat bekend als ‘hallucineren’. De gebruiker krijgt dan een antwoord dat niet (helemaal) strookt met de werkelijkheid.

Bevestiging

RAG

patronen

Maak uw gratis account aan!
Heeft u al een account? Log dan in

Probeer Fundament nu 14 dagen gratis

Na twee weken stopt uw toegang automatisch. U zit dus nergens aan vast! Met uw account profiteert u direct van:

 

Altijd en overal betrouwbare vakinformatie geselecteerd door een ervaren redactie

Op kantoor achter uw computer of in de trein op uw mobiel, de informatie van Fundament kunt u altijd en overal raadplegen.

 

Toegang tot de overzichtelijke online kennisbank

Honderden artikelen met praktijkinformatie, aangepast aan de geldende wet- en regelgeving over centrale thema's binnen uw vakgebied.

 

Gratis adviesdesk

Stel uw praktijkvragen aan de deskundige adviesdesk en bespaar al snel honderden euro's op externe adviseurs.

 

Toegang tot Rendement.nl

Met een account op Fundament krijgt u automatisch ook toegang tot Rendement.nl met actuele nieuwsberichten, honderden praktijktools en diepgravende achtergrondartikelen.

U kunt eenmalig gebruik maken van dit aanbod. Bekijk hier de mogelijkheden voor een abonnement.

Maak uw gratis account aan!
Heeft u al een account? Log dan in