„Ich danke jedem, der ein Problem offen anspricht“
Der Anästhesist Michael St. Pierre, Professor am Universitätsklinikum Erlangen, hat seine Forscherkarriere einer großen Frage gewidmet: Welche Bedingungen braucht Sicherheitskultur in der Medizin, um gedeihen zu können? Ein Gespräch darüber, was ein Team im Simulator über sich selbst lernen kann und wo die Verantwortung der Arbeitgeber im Gesundheitssystem liegt.
Ob bei technischen Hilfsmitteln, Meldesystemen für kritische Ereignisse oder Checklisten – insbesondere die Anästhesie fällt immer wieder mit innovativen Ideen für mehr Patientensicherheit auf. Warum?
Ich denke, es liegt an der besonderen Gefahr, die Narkosen für Patienten mit sich bringen. Sie erfordern Substanzen, die einen Menschen nicht nur betäuben, sondern immerhin auch töten können. Als die ersten Narkosen durchgeführt wurden, gab es noch keine Beatmungsgeräte, keine Überwachung der Vitalparameter. Ärztinnen und Ärzte konnten nicht messen, ob die Narkosemittel überdosiert worden waren. Diese hohe Unsicherheit motivierte, die medizinische Entwicklung in Sachen Sicherheit voranzutreiben. Heute liegt das Risiko, als gesunder Mensch bei einer Narkose zu sterben, bei einer von 250.000 Narkosen. Das ist sehr gering und ein großer Erfolg dieser Vordenker.
Der Motor der Entwicklung war also die Einstellung, ich will helfen, nicht schaden. Würden Sie sagen, dass ist eine grundsätzliche ärztliche Haltung?
Ja, aus ganz menschlichen Gründen. Als Mediziner arbeiten wir immer wieder an der Grenze zwischen Leben und Tod, in extremen und extrem belastenden Situationen. Wir alle kennen diese Momente, in denen wir einen Tag wieder und wieder Revue passieren lassen mit der Frage, ob die getroffene Entscheidung die richtige war. Niemand möchte am Leiden eines anderen Menschen ursächlich beteiligt sein. Ich habe schon als Student begonnen, mich mit den Folgen fehlerhaften und schuldhaften Verhaltens zu beschäftigen. Nicht zuletzt deswegen, weil ich mir immer wieder einmal bittere Vorwürfe gemacht habe.
Warum?
Um mein Studium zu finanzieren, jobbte ich als studentische Hilfskraft auf einer Intensivstation. Eine verantwortungsvolle Tätigkeit, für die ich bei Weitem nicht die nötige Erfahrung und das Fachwissen mitbrachte. Eingestellt hatte man mich trotzdem, um überhaupt alle Betten betreiben zu können. So kam es immer wieder einmal vor, dass ich im besten Wissen etwas tat, um kurz darauf an der sich verändernden Pathophysiologie des Patienten zu merken, dass dies falsch gewesen war. Ich erschrak dann über mich selbst und versuchte, meinen Fehler niemanden merken zu lassen. Heute würde ich sagen: Das war der eigentliche Fehler! Wenn uns etwas kritisch erscheint, müssen wir unbedingt darüber sprechen, sonst können weder wir noch andere daraus lernen.

Zur Person
Michael St. Pierre, Professor für Anästhesiologie am Universitätsklinikum Erlangen, spricht bei BÄK im Dialog zum Thema „Der Mensch als Sicherheitsfaktor“. St. Pierre schrieb Bücher zu Fehlerkultur, Notfallmanagement und anderen Themen der Patientensicherheit, er hat einen Master in „Human Factors & System Safety der Universität Lund. Seine Habilitationsschrift trägt den Titel „Simulationsbasierte Strategien zur Stärkung der Patientensicherheit“. Zusammen mit einem Kollegen leitet er in Erlangen das 1996 gegründete „Simulations- und Trainingszentrum“. St. Pierre ist zudem Mitglied des medizinischen Fachbeirats des von der BÄK getragenen Incident-Reporting-Systems CIRSmedial.de, Gutachter von CIRS-AINS sowie Referent des berufsbegleitenden „Curriculum Patientensicherheit“.
Sprechen Sie von Fehlern, die in einem Schaden münden oder meinen sie auch ein ungutes Gefühl?
Schon wenn uns etwas merkwürdig vorkommt, immer aber wenn sich eine Situation kritisch entwickelt, müssen wir unbedingt Hilfe holen, sonst nimmt der Patient Schaden. Unerwünschte Ereignisse werden oft dadurch begünstigt, dass Menschen Angst davor haben nachzufragen oder um Hilfe zu bitten.
Warum haben Sie Ihre Zweifel damals nicht geteilt?
Ganz klar: weil ich damals eine diffuse Angst vor den Konsequenzen hatte und davor, dass mir dann der Vertrag als studentische Hilfskraft gekündigt wird. Viele von uns machen schon in der Kindheit die Erfahrung, dass sich Ärger erspart, wer den Mund hält. Hinzu kommt, dass wir von den späten 1980er Jahren sprechen, einer Zeit, in der viele Chefs in Kliniken es für gute Führung hielten, den Nachwuchs beim geringsten Anlass vor versammelter Mannschaft rund zu machen. Dabei ist der Schlüssel zu einem risikoarmen und lernfähigen System das, was wir psychologische Sicherheit nennen. Jede Mitarbeiterin, jeder Mitarbeiter muss sich sicher sein können, dass sie über solche Situationen sprechen kann, ohne deswegen Nachteile zu erleiden.
Wie erzeugen Sie als Vorgesetzter dieses Klima?
Das Gefühl von Sicherheit steht und fällt mit dem persönlichen Vorbild. Jeden Tag aufs Neue muss man auf Fehler gelassen reagieren, darf nicht ungeduldig oder ärgerlich wirken, muss einfach mit Worten und Körpersprache ganz klar machen, dass keine Schuld verteilt, sondern nur der Hergang aufgeklärt wird. Auch die Entscheidung, mit welchen Persönlichkeiten man eine leitende Stelle besetzt, kann sich auf Patientensicherheit in der betroffenen Abteilung auswirken.
Machen Sie es mal konkret. Was sagen Sie, wenn junge Assistenten oder Studenten einen Fehler eingestehen?
Wenn junge Kollegen neu im Team sind, dann klingen solche Berichte über kritische Ereignisse tatsächlich erstmal wie ein „Geständnis“. Die Betroffenen schämen sich sichtlich, sie entschuldigen sich, dass sie etwas falsch gemacht haben. Auch nach Begebenheiten, für die sie gar nichts können. Ich versichere ihnen dann, dass es überhaupt keinen Grund für solche Reaktionen gibt, sage zum Beispiel: „Du brauchst dich nicht zu entschuldigen, denn du bist ja bis zuletzt davon ausgegangen, dass deine Entscheidung die richtige ist. Jetzt lass uns mal genauer anschauen, warum das für dich Sinn ergeben hat und was beim nächsten Mal anders sein müsste, damit so ein Zwischenfall nicht mehr eintreten kann.“
Woher haben Sie diese Strategie?
Wir nennen das in der Patientensicherheitsforschung konstruktive Nachbesprechung. Genauso gehen wir an ein Debriefing bei uns im Simulations- und Trainingszentrum heran: Angetrieben von der aufrichtigen Neugier zu verstehen, warum ein Kollege so gehandelt hat, wie er gehandelt hat.
Erzählen Sie bitte mehr davon, was ist das für ein Zentrum, was genau simulieren Sie?
Vereinfacht ausgedrückt: Man trainiert mit computerisierten, anatomischen Puppen, an denen man viele Behandlungen realistisch durchführen kann, weil sie menschliche Körperfunktionen imitieren. So kann man zum Beispiel ein Szenario darstellen, in dem die Lunge eines Patienten kollabiert und üben, wie man einen Schlauch in den Brustkorb einführt, um die Flüssigkeit zu entfernen, die die Lunge zusammendrückt. Mitarbeitende aus dem Simulationsteam schauspielern weitere Rollen, sodass realitätsnah Zwischenfallszenarien von Teams aus Ärzten und Pflegekräften gemeinsam bewältigt werden müssen. Die zugrundeliegende Idee ist genau dieselbe wie in einem Flugsimulator für Piloten: Wir üben in einem sicheren Rahmen das Management von unerwarteten Zwischenfällen, bevor man damit in der Praxis zu tun hat. Vor allem aber – und das ist wahrscheinlich für die Sicherheitskultur eines Hauses noch wertvoller – merken Sie im Simulator, was in Ihrem Team funktioniert und was nicht, etwa ob die Kommunikation stimmt.
Ein Beispiel?
Vielleicht wirft einer nur ein kurzes Wort hin, weil er ungern redet. Ein anderer traut sich nicht, genauer nachzufragen. Schon gehen beide von anderen Annahmen zur aktuellen Situation aus. Genauso etwas kann im echten OP gefährlich werden. Beim Training sehen wir. Große Fehler beginnen klein – und viele haben ihren Anteil daran.
Klingt, als wäre es höchste Zeit für eine umfassende Medizin-KI, die die Menschen und ihre Fehlerketten ersetzt …
Im Gegenteil, die Vorstellung, dass menschliche Faktoren gleichzusetzen sind mit „Fehlerquelle“, wird menschlichem Handeln nicht gerecht. Denn es sind die gleichen Faktoren, welche das Denken und Handeln von uns Menschen so vielseitig und effizient und fast immer auch sicher machen. Die Lösung für den menschlichen Faktor in der Medizin ist zumindest im Kontext meines Berufs nicht, menschliche durch maschinelle Entscheidungen zu ersetzen. Menschen mit ihrer besonderen Fähigkeit, Situationen ganzheitlich wahrzunehmen, sich an beständig wechselnde Lagen anzupassen und Dinge zu hinterfragen, sind es ja, die Sicherheit herstellen, indem sie riskante Konstellationen erkennen und entsprechend reagieren. Etwa, wenn eine Maschine versagt. Unterm Strich verhindern wir Menschen viel mehr unerwünschte Ereignisse als wir verursachen!
Und was wäre dann Ihre Strategie gegen menschliche Irrtümer?
In der Patientensicherheitsforschung spricht man davon, dass auch „nichttechnische Fertigkeiten“ einer Ärztin oder eines Arztes zu einem wirksamen Sicherheitskonzept dazugehören, ihre kognitiven und sozialen Fähigkeiten helfen, Fehler zu reduzieren, menschliche Leistung zu verbessern, die Sicherheit von Patienten in komplexen Situationen zu erhöhen. Sofern das Klima in meiner Organisation eine offene und angstfreie Kommunikation erlaubt, kann ich meine menschliche Fähigkeit, die Dinge zu hinterfragen, nutzen, um zu verstehen, wann mir meine Art zu denken im Weg steht. Entsprechend verändere ich mein Verhalten. Der Kollege in der Simulation fragte deswegen nicht nach, weil er nicht unwissend wirken wollte. Im Debriefing erarbeiten wir gemeinsam: Unklarheiten anzusprechen oder Bedenken zu äußern sollte immer wichtiger sein als die eigenen Ängste oder Befürchtungen.
Das klingt alles sinnvoll – aber auch zeitaufwändig. Hat unser Gesundheitssystem die für die Selbstreflexion nötigen Ressourcen?
Sie sprechen ein großes Problem an. Viele Kolleginnen und Kollegen arbeiten wegen der ökonomischen Vorgaben an den Grenzen sicheren Handelns. Als ich begann, mich mit Patientensicherheit zu beschäftigen, war ich sehr beeindruckt von den Regularien der Luftfahrt, hätte manches gern auf die Medizin übertragen. Bis ich dann verstand: Es ist nicht übertragbar, nicht bei diesem Gesundheitssystem.
Warum nicht? Piloten fliegen laut einem bekannten Sicherheitsprotokoll nicht, wenn sie beim Check vor dem Start merken, dass sie übermüdet sind. Das wäre doch für Ärzte auch eine gute Idee.
Unbedingt. Und doch sind wir da mitten im Kern des Problems: Airlines halten für den Fall, dass sich Crewmitglieder krankmelden, Ersatzcrews bereit. Wenn ich mich als Arzt nicht voll leistungsfähig fühle, gibt es keinen geplanten und fürs Warten bezahlten Ersatz. Dafür ist es durchaus möglich, dass mich an dem Tag niemand im OP vertreten kann. Da überlegt man sich zweimal, ob man das den Patienten antun möchte, und geht eben doch arbeiten. Im Gegensatz zum Luftverkehr fehlt in der Medizin ein Finanzkonzept für die Vorhaltekosten von Sicherheit.
Würden Sie sagen, dass der Personalmangel im Gesundheitswesen zu Lasten der Sicherheitskultur geht?
Wenn ohnehin, wie inzwischen vielerorts, Personal fehlt, gibt es natürlich noch seltener die Möglichkeit, Kollegen zu vertreten – oder weniger Zeit, Fehler aufzuarbeiten. Der Mangel, die Überlastung, wirkt sich nun auch auf das anästhesiologische Critical Incidents Reporting System (CIRS-AINS) aus, ein Meldesystem für Risikosituationen. Seit mehr als zehn Jahren beteilige ich mich dort als Gutachter, sichte eingetragene Fälle, beschreibe Fehlerhergänge, mache Berichte mit überregionaler Bedeutung öffentlich, damit alle daraus lernen können. Doch inzwischen geht es in jedem zweiten Eintrag gar nicht mehr um solche Zwischenfälle, sondern um untragbare Arbeitsbedingungen, Personalmangel, Überlastungsanzeigen und unwirsche Vorgesetzte.
Aber ist es nicht auch wichtig, dass diese Situationen öffentlich mitgeteilt werden, im Sinne der Sicherheit?
Auf jeden Fall, nur an einem anderen Platz, nicht in den Reportingsystemen. Diese sind dafür gedacht, dass Mitarbeitende unerwartete, neuartige oder schwerwiegende Ereignisse mit Sicherheitsrelevanz melden, damit diese dann anonymisiert analysiert und, wo notwendig, mit konstruktiven Maßnahmen beantwortet werden können. Diese Flut von allgemeinen Beschwerden lesen zu müssen, macht die Bearbeitung von CIRS-Fällen manchmal sehr mühsam.
Hintergrund
CIRS-AINS ist die Abkürzung für Critical Incident Reporting System – Anästhesiologie und Intensivmedizin, Notfallmedizin, Schmerztherapie. Kritische Ereignisse und Beinahefehler in diesen Fachbereichen können dort hinterlegt werden. So sollen Ärztinnen und Ärzte aus Fehlern lernen und die Patientensicherheit verbessern können, ohne Schuldzuweisungen vorzunehmen. Bisher sind über 5.000 bedenkenswerte Situationen in der Datenbank hinterlegt. Die Meldungen werden gesammelt, analysiert und als Lernfälle veröffentlicht, um Risikosituationen künftig zu vermeiden.
CIRS-AINS ist Teil eines ganzen Netzes aus solchen Meldesystemen in Deutschland, die die Bundesärztekammer als Partnerin organisatorisch und technisch unterstützt. Betrieben von der Bundesärztekammer wird CIRSmedical.de, ein bundesweites Berichts- und Lernsystem der Ärzteschaft für alle Mitarbeiterinnen und Mitarbeiter des Gesundheitswesens. Dort können sämtliche sicherheitsrelevanten Ereignisse, die in der Medizin auftreten, berichtet werden.
KH-CIRS Netz Deutschland beschäftigt sich mit Beobachtungen in Kliniken, hier sind die Partner der Bundesärztekammer die Deutsche Krankenhausgesellschaft (DKG) und der Deutschen Pflegerat (DPR).