Wettesten lezen doe je niet voor je lol. Ook machinebouwers niet. Toepassen moet je ze wel. Dus ontkom je er niet aan. Daarom kan je als in januari 2027 de Machineverordening van kracht, nu maar beter vast beginnen met lezen. Of toch niet?

Een team van Fraunhofer IWU ‘voedt’ namelijk nu een AI-oplossing met uitgebreide technische en juridische teksten. Het team bereidt de externe invoer zo voor dat zoekopdrachten (prompts) leiden tot nauwkeurige en volledige informatie. Retrieval Augmented Generation (RAG) maakt dit mogelijk.
Chatbot niet te vertrouwen
De Large Language Models (LLM’s) van ChatGPT en soortgenoten zijn eigenlijk alleen maar goed voor een eerste oriëntatie of huis-tuin-en-keukengebruik. Want er zijn wel wat beperkingen: trainingsdatasets kunnen onvolledig of verouderd zijn en sommige informatie kan vaag of onjuist zijn.
Dus wil je een veilige machine bouwen, zodat je daar met gerust hart CE op kan plakken? Dan kan je beter maar niet op een chatbot vertrouwen. Dus dan toch maar alle relevante documenten in detail bestuderen?
RAG en de Machineverordening
Misschien toch niet. Een team van Fraunhofer IWU ‘voedt’ nu een AI-oplossing met uitgebreide technische en juridische teksten. Het team bereidt de externe invoer zo voor dat zoekopdrachten (prompts) leiden tot nauwkeurige en volledige informatie. Retrieval Augmented Generation (RAG) maakt dit mogelijk.
Dat RAG geeft aanvullende richtlijnen geeft aan het taalmodel. Het model scant dan voornamelijk essentiële teksten of tekstgedeelten. Hiervoor wordt het taalmodel niet opnieuw getraind, maar selectief uitgebreid. Fraunhofer IWU integreert nu de EU-machineverordening (2023/1230) in een LLM voor demonstratiedoeleinden.
Hoe werkt het?
Het team koos voor LLaMA (Large Language Model Meta AI) als geschikt model. Het is het groot en krachtig genoeg is en een PC – wel van hoge kwaliteit – raakt de weg er niet van kwijt. En met een lokale machine houd je de controle over jouw gegevens behouden. Wanneer bedrijven gegevens verwerken die minder of niet kritisch zijn, kan een cloud ook een goede keuze zijn.
Eerst moeten de gegevens die zijn geselecteerd voor import in de LLM, worden gereduceerd tot platte tekst (opschonen). Ten tweede wordt de opgeschoonde tekst gesegmenteerd in kleinere delen (chunks – detecteerbare eenheden). Stap 3 is het bouwen van een zoeksysteem (Retrieval System) dat de chunks efficiënt kan doorzoeken. De chunks worden georganiseerd volgens relevante passages en opgeslagen in een vectordatabase, dat wil zeggen omgezet in wiskundige vectoren die hun betekenis weergeven. Prompts worden ook omgezet in vectoren.
Op deze manier kan het model zoeken naar de woorden in het verzoek en tegelijkertijd de prompt ‘begrijpen’ (semantisch zoeken). Het model kan nu inkorten, herstructureren, de meest relevante informatie eruit halen en deze combineren in een begrijpelijke context. Wanneer gebruikers een specifieke zoekopdracht invoeren, zijn geselecteerde brokken beschikbaar en kan het model volledige, op feiten gebaseerde antwoorden geven. Het model leert van de context van de chunks en hoeft niet opnieuw te worden getraind.
Voor het mkb
Nu staat IWU voor Institut für Werkzeugmaschinen und Umformtechnik‘. Voor gereedschapmachines weet de afdeling ‘Machine Learning in Production’ nu hoe je de kritieke passages in de Machineverordening naar boven haalt. Nu gaat de aandacht naar de integratie van verschillende gegevensbronnen, ook tabellen en afbeeldingen, om ze gemakkelijk vindbaar te maken.
De machineverordening bepaalt bijvoorbeeld wanneer wijzigingen aan machines en apparatuur een nieuwe conformiteitsbeoordeling vereisen. Als voorbeeld van een complexe wetstekst was dit het uitgangspunt voor demonstratietoepassingen bij IWU. Ben je als mkb-er geïnteresseerd? Bij Fraunhofer IWU in Chemnitz kan je aankloppen voor hulp bij het bouwen van applicaties op maat.