Pexels thisisengineering 3861969
Blog

Wat kan AI voor ons betekenen?

AI in Finance en Credit Management

Een leverancier heeft een belangrijke verplichting naar zijn stakeholders toe met betrekking tot kwaliteit. Peter Drucker zei het al ‘de kostprijs van een fout is ondenkbaar en ontelbaar’.

Hij wilde hiermee aantonen dat je de fout moet zien als een individueel issue dat evenwel heel wat meer en bredere impact heeft dan het op het eerste zicht lijkt.

Ook in finance en credit management is kwaliteit essentieel. Iedereen kent de 3 belangrijkste redenen voor wanbetaling: niet kunnen betalen, niet willen betalen en klachten. Klanten betalen niet voor leveringen die niet conform het gevraagde zijn.

Toch zijn klachten niet altijd negatief. Klachten laten ook zien hoe goed ons vermogen is om problemen op te lossen.

Waar komen fouten vandaan?

Jim Reason spreekt over latent en actief falen. Latent falen zijn systeemfouten die vaak lange tijd verborgen kunnen blijven, maar op een gegeven moment wel uitbreken. Systeem betekent hier meer dan de technische/technologische apparatuur. Het systeem omvat even goed de bedrijfsstructuur en het management.

Actief falen is de fout van een individu. ‘nobody is perfect’ zegt het spreekwoord. En dat klopt. Wanneer er manuele handelingen zijn, kunnen er fouten gebeuren.

Waar de fout ook vandaan komt, we moeten die zo snel mogelijk rechtzetten. Excuses zijn aan de orde, maar vooral corrigerende acties maken het verschil. Excuses in de ik- of wij-vorm? Wanneer jezelf de fout hebt begaan en communiceert is het persoonlijker om ik te gebruiken. Wanneer je namens de onderneming spreekt is het wij en niet ‘namens mijn collega’. We zijn 1 team!

Moeten er cadeautjes uitgedeeld worden? Soms wel, Soms niet. Het wordt heel erg geapprecieerd door klanten maar het is niet nodig om Sinterklaas te spelen. Correctie van de fout, snel en volledig, daar gaat het om. ‘Underpromise and overdeliver’: stel een iets langere periode voorop en doe het sneller.

Fouten moeten ook leermomenten zijn. De volgende keer moet de fout vermeden worden.

Systeemfouten – AI

Wat gaat dit geven bij AI en bij al de technologische ontwikkelingen die er momenteel plaats vinden?

Enkele voorbeelden:

Microsoft heeft aangekondigd om in al zijn kantoorsoftware (word, excel, …) GPT-4 in te bouwen. De Microsoft 365 CoPilot zal helpen bij het ontwerpen van presentaties of het schrijven van documenten.

In de Bing zoekmachine is ook GPT 4 ingebouwd en bij Google is de Bard chatbot in volle ontwikkeling.

Meer en meer bedrijven zetten AI in om antwoorden op de website te verschaffen. Of het nu om foutmeldingen op wasmachines, vluchttijden bij luchtvaartmaatschappijen, analyse van ziektebeelden of het verschaffen van kredietlijnen gaat.

Opvallend: al deze partijen waarschuwen dat de antwoorden die gegeven worden, niet zomaar vertrouwd mogen worden. Blijkbaar zijn er regelmatig onjuiste feiten.

Er zijn dan ook nog heel wat wettelijke normen nodig. Allereerst over eigenaarsrecht maar zeker ook over aansprakelijkheid: wat als AI een foute melding geeft en dit dure of zware gevolgen heeft? Wie is er dan aansprakelijk? Hoe kunnen we de kwaliteit waarborgen? Hoe kunnen we ervoor zorgen dat er geen risico’s ontstaan?

De wettelijke normen zijn op komst: de AI act is de naam van de verordening die vanaf 2025 AI zal regelen in Europa. De bedoeling is dat eind 2023 de act klaar zal zijn. Momenteel is al duidelijk dat voor generatieve AI (zoals Chat GPT en Bard) er duidelijke transparantievereisten gaan gelden:

  • Er moet duidelijk vermeld staan dat de inhoud is gemaakt door AI.
  • Model moet zo ontworpen zijn dat er geen illegale inhoud gemaakt kan worden.
  • Overzicht van alle auteursrechtelijk beschermde gegevens die voor de ontwikkeling van het systeem gehanteerd zijn.

Omdat AI in de huidige vorm nog niet alle garanties kan bieden, zal aanvankelijk het gebruik zwaar aan banden worden gelegd. Dit gebeurt op basis van het risico dat er aan verbonden is.

Niet aanvaardbaar risico

Wanneer er sprake is van een onacceptabel risiconiveau (bedreiging voor mensen) wordt AI verboden. Enkele voorbeelden:

  • Cognitieve manipulatie (bv. stem gestuurde gadgets die aanzetten tot gevaarlijk gedrag).
  • Sociale score: indelen van mensen op basis van gedrag, socio -economische status of persoonlijke karakteristieken.
  • Real-time of biometrische identificatie op afstand zoals gezichtsherkenning (hier zijn wel een aantal uitzonderingen op).

Hoog risico

Alle systemen die de veiligheid of fundamentele rechten van mensen negatief kunnen beïnvloeden worden in diverse categorieën onderverdeeld. Ze worden tijdens de volledige levensduur gevolgd;

  • Producten die conform de EU veiligheidswetgeving moeten gemaakt worden.
  • AI-systemen op acht verschillende gebieden, die in een EU-databank moeten worden geregistreerd:
  • biometrische identificatie en categorisering van natuurlijke personen;
  • beheer en exploitatie van kritieke infrastructuur;
  • onderwijs en beroepsopleiding;
  • werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid;
  • toegang tot en gebruik van essentiële particuliere diensten en openbare diensten en uitkeringen;
  • rechtshandhaving;
  • migratie, asiel en beheer van grenscontroles;
  • ondersteuning van rechterlijke instanties bij het uitleggen van feiten en toepassing van het recht.

Beperkt risico

Deepfake hoort hier ook bij. Zowel beeld als audiomateriaal. Ook hier gelden transparantie eisen zodat gebruikers goed weten dat het AI is.

Ik ben erg benieuwd naar de impact van de wet op de scoringsmodellen. Op dit moment gebruiken veel leveranciers die verkopen aan particulieren geografische en andere kenmerken. Er zal goed gelet moeten worden op welke elementen gehanteerd worden en een duidelijke monitoring is ook nodig.

Er is wel al een uitzondering voorgesteld voor fraudedetectie. Compliance bij het gebruik van technologie zal zeker een aandachtspunt zijn.

We houden het in de gaten en komen bij je terug wanneer er meer nieuws is!

Par
Marleen Miechielsen
Partager