Bel mij

Laat uw telefoonnummer achter en wij bellen u vrijblijvend terug.


De machinerichtlijn over 10 jaar

4-01-2019

Kan de richtlijn de snelle veranderingen bijhouden? Als het al lastig is voor normalisatie, hoe lastig is het dan voor het wetgevende kader? Lastig? Of juist niet, het is immers het stellen van de kaders, de grenzen. Het lijkt simpel, maar waar ligt de grens. Wat is acceptabel en wat niet. Vooral nu de techniek zo snel verandert, is het een uitdaging om de wetgeving zo in te richten dat deze blijft passen bij de technologische vooruitgang. Een onderdeel wat momenteel ter discussie staat is het besturingstechnische vlak. Door de komst van Artificial Intelligence (AI) zal de wetgeving hier op in moeten gaan spelen.

Binnen onze huidige maatschappij is AI al in simpele vormen in ons dagelijks leven ingeburgerd. Virtuele assistenten op telefoons geven ons antwoord op vragen zoals ‘hoe lang is de rivier de Nijl’ en ze helpen ons mee om het licht in huis in of uit te schakelen. Niet alleen telefoons bezitten de techniek maar het wordt ook doorgevoerd  in luidsprekers, auto’s en in de zorg en online vraag, de bekende vraag en antwoord. Wat nu als de AI technieken ook in machines hun intrede doen? Machine learning is een variant van AI. De besturing wordt hierbij geleerd om te ‘kunnen leren’. Simpel gezegd, de machine wordt niet voorgeschreven om handelingen uit te voeren, maar leert door te doen. Alsof het menselijke hersenen zijn.

Kijkend naar de Machinerichtlijn staan er in Bijlage I (de essentiële veiligheids- en gezondheidseisen) onder andere de volgende punten;

  • “een storing in de apparatuur of de programmatuur van het besturingssysteem niet tot een gevaarlijke situatie leidt”
  • “fouten in de besturingslogica niet tot een gevaarlijke situatie leiden”

Deze punten zullen ook in die nieuwe systemen nog steeds van toepassing zijn en blijven, maar wat nu als die zelflerende systemen die fouten kunnen repareren? Moet de richtlijn daar op inspelen? Of moet dat worden voorkomen door vast te leggen dat dit niet mogelijk mag zijn? De vraag die als eerste op zal komen is hoe de betrouwbaarheid van dergelijke systemen wordt bepaald en of deze onder een PLe of SIL 3 classificatie kunnen worden geschaard. Daar zal in eerste instantie voor een belangrijk deel terughoudend op worden gereageerd. De technieken zullen zich eerst moeten bewijzen bij de zogenoemde standaardbesturingen, voordat er vanuit veiligheid naar gekeken gaat worden. Terugkijkend op de ontwikkeling van besturingssystemen voor machines en het hieruit voortkomen van veiligheidsbesturingen zit daar een tijdsvertraging in. Mogelijk gaan deze nieuwe ontwikkelingen sneller, maar dat is op dit moment koffiedik kijken.

Feit blijft wel dat we binnen de veiligheidstechniek hiermee te maken gaan krijgen. Het kader zal hiervoor moeten worden ingericht. Al zullen de eisen globaal zijn, uitbreiding van de Machinerichtlijn op deze aspecten is onontbeerlijk. Normen kunnen inspelen op de stand der techniek, terwijl de Machinerichtlijn deze technieken moet proberen in te passen en vooruit te kijken. Het kader moet uiteindelijk de grenzen geven en misschien komen de robotwetten van Asimov toch nog in de wet terecht. Met als basis de ‘eerste wet: ‘Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.’

Bron: NEN Industrie & Veiligheid

shutterstock_105322154

Geïnteresseerd?

Neem contact op