Ik heb net een nieuwe auto gekocht. Niet eens een hele dure, maar wel een compleet uitgerust model. Zo is er Lane Departure Warning, Blind Spot Warning, Driver Attention Alert, Autonomous Emergency Brake System, verkeersbord herkenning, en nog meer. Geweldig, maar het zette me aan het denken…..
Bij de eerste uitleg door de dealer viel me op dat hij direct wees op een aantal knopjes links van het stuur. Daarmee kon ik een aantal van de genoemde features uitzetten. Hè? Daar had ik toch net voor betaald? Via het menu kon ik ook andere van deze functies uitzetten. En toen ik de gebruiksaanwijzing las, barstte het van de waarschuwingen dat ik zelf goed moest opletten. En als ik me stoor aan de piepjes omdat ze in mijn ogen te vaak niet kloppen, dan zet je ze toch gewoon uit? Kortom, de auto neemt geen verantwoordelijkheid, ik ben zelf verantwoordelijk.
Lees onze eerdere blogs over zelfrijdende auto’s en treinen en je denkt: ja, dat wist ik inmiddels wel. Maar nu even wat filosofischer. Ik ben betrokken geweest bij de ontwikkeling van meerdere beveiligings-, waarschuwings- en informatiesystemen in treinen. Kritiek van overheden en ook van sommige machinisten was vaak dat het zo ontzettend lang duurde (en nog duurt) voordat dergelijke systemen klaar waren. Die systemen zijn namelijk veelal gebaseerd op gangbare zaken als GPS, GSM, etc. Als dat voor een paar honderd euro nu al in je auto zit, waarom kan dat dan niet snel in treinen?
Tja, wil je dat de piloot van jouw vliegtuig het Ground Proximity Warning System (GPWS) of Traffic Alert and Collision Avoidance System (TCAS) uit zou kunnen zetten, omdat hij meent dat hij volledig in control is, of omdat hij zichzelf als een vakman beschouwt die die systemen niet nodig heeft? Wil je dat een machinist een waarschuwing voor een rood sein uit zou kunnen zetten, omdat hij zich stoort aan de vorige keren dat het signaal ten onrechte klonk? Ik niet, maar deze reacties van piloten of machinisten zijn wel te begrijpen. Dit heeft alles met de betrouwbaarheid van deze systemen te maken.
In de automobielindustrie is het blijkbaar simpel: er worden features ontwikkeld die je – als ze je niet bevallen – maar uitzet. Als er een botsing volgt, waarbij zo’n systeem had kunnen waarschuwen of ingrijpen, denken de meesten: eigen schuld, had je het maar niet moeten uitzetten. Dat heeft deels te maken met de locus of control. Als we zelf sturen denken we zelf in controle te zijn. Gaat er iets fout, dan is het onze eigen schuld. Ligt de controle bij een ander (piloot, machinist, buschauffeur) dan eisen we veel grotere maatregelen, ook al is het vervoer met deze voertuigen veiliger dan in onze eigen auto. Systemen worden daar ontwikkeld met een bepaalde betrouwbaarheid en bewezen effectiviteit. Dat wil niet zeggen dat die systemen perfect hoeven te zijn, maar ze richten de aandacht op wat nodig is met een bepaalde mate van zekerheid. De mate van zekerheid kunnen we ook nog eens vertalen in het signaal dat wordt gegeven. Dat stelt hogere eisen aan de systemen, en vergt een langere ontwikkeltijd om alle risico’s op oververtrouwen op of negeren van signalen goed te beschouwen. Helaas, maar wat mij betreft dit liever dan afhankelijk te zijn van zelfinschatting of overschatting van de bestuurder/piloot/machinist/stuurman.
Als je meer wilt weten over het mensgericht ontwerp van waarschuwingssystemen, neem dan contact met mij op.
2 oktober 2017 – door drs Richard van der Weide EurErg