Artikel

CIRS: CRITICAL INCIDENT REPORTING SYSTEM

Ein System zur Erfassung und Auswertung kritischer Ereignisse

Der Fortschritt in der modernen Medizin ist allgegenwärtig. Heute gibt es Therapien für Krankheiten, die gestern noch als unheilbar galten, andere Therapien wurden weiter verbessert und vereinfacht, so dass sie inzwischen vielen Patienten zu Gute kommen können. Durch verbessertes Monitoring wird die Sicherheit erheblich gesteigert. Die Erwartungen der Patienten sind groß und werden – nicht zuletzt durch die Fortschrittsmeldungen – immer größer.

Aber wo Licht ist, ist auch Schatten: im Jahr 2007 veröffentlichte das „Aktionsbündnis Patientensicherheit“ in seiner Agenda 2007 eine Studie, die auf 51 Einzelstudien basiert. Hiernach käme es auch in Deutschland jährlich zu einer Vielzahl von vermeidbaren Zwischenfällen und unerwünschten Ereignissen, die für 0,1% der Patienten tödlich ausgingen. Bei einer angenommen Gesamtzahl von 17,5 Millionen Krankenhauspatienten jährlich kommt die Studie des Aktionsbündisses rechnerisch auf 17.500 Todesfälle, denen vermeidbare Zwischenfälle zu Grunde lägen.'

' Bereits im Jahre 2000 hatten Corrigan et al. eine ähnliche Studie für die USA veröffentlicht. Auf verschiedenen Untersuchungen zu Zwischenfällen in Krankenhäusern basierend wurde die Zahl der jährlich in den USA durch vermeidbare Fehler zu Tode gekommenen Patienten auf über 44.000 geschätzt. Frühere Studien zu dieser Thematik ergeben zum Teil noch höhere Zahlen für vermeidbare Fehler im Gesundheitswesen. Vermeidbare Zwischenfälle verursachen nicht nur unnötiges Leid bei den betroffenen Patienten und ihren Angehörigen. Die hohe Erwartungshaltung der Patienten gepaart mit einer ständig wachsenden Klagebereitschaft führt auch zu einer wachsenden wirtschaftlichen Belastung der Krankenhäuser. Insbesondere betroffen hiervon sind einerseits die Krankenhäuser, die einen hohen Anteil an Ärzten in Weiterbildung, sowie andererseits einen größeren Anteil multimorbider Patienten haben. Eine stetig anwachsende Arbeitsbelastung der Ärzte durch Arbeitsverdichtung aufgrund kürzerer Verweildauern der Patienten bei steigenden Fallzahlen kommt erschwerend hinzu. Derartige Entwicklungen betreffen in zunehmendem Maße auch die Bundeswehrkrankenhäuser.

Kritische Ereignisse und Fehler Der menschliche Faktor

In einer Analyse der Anaesthetic Incident Monitoring Study (AIMS) stellte Kluger 2002 fest, dass eine Vielzahl der berichteten Fehler auf menschliche Fehlleistungen zurück zu führen waren. In erster Linie handelte es sich um Fehler im Situationsbewusstsein, welches in die Bereiche fehlerhafte Beurteilung der Situation, Unaufmerksamkeit und Ablenkung unterteilt werden konnte.
Welche Rolle menschliche Fehlleistungen in der Entstehung von Zwischenfällen und Unfällen spielen, ist Gegenstand der Erforschung des „human factors“. Diese beschäftigt sich mit der Frage, welche psychologischen Mechanismen die Leistungsfähigkeit menschlichen Denkens und Handelns bestimmen und versucht zu klären, warum Menschen trotz schwieriger Arbeitsbedingungen zu guten Entscheidungen kommen können. Bei Untersuchungen aus den Bereichen Anästhesie, Luftfahrt und Schifffahrt war fest zu stellen, dass menschliches Versagen in ca. 80% der Fälle eine entscheidende Rolle spielte. Für die Klärung von Fehlverhalten ist daher eine Analyse menschlichen Denkens und Handelns zwingend erforderlich.
Bereits die Wahrnehmung der Realität ist ein komplexer Vorgang, der Fehlerquellen enthält. Wir nehmen die Realität keineswegs so wahr, wie sie ist, sondern ihr Bild wird optisch bearbeitet, in Nervenimpulse umgesetzt, durchläuft verschiedene Filter und Blenden und unterliegt verzerrenden Modulationsprozessen, bevor „innen“ das subjektive Abbild der Realität „draußen“ entsteht. Hierbei kann es im Ergebnis zu entscheidenden Abweichungen kommen.
Bestimmte psychologische Prinzipien lassen sich als Ursache von Handlungsfehlern bei Wahrnehmung, Erkennung und Verarbeitung von Information identifizieren. Hierbei können diese in die Teilbereiche „individuell“, „teambezogen“ und „organisationsbezogen“ untergliedert werden. Individuell, also auf die Einzelperson bezogen, führen vorhandene Emotionen, Absichten und Motive zu einer Beeinträchtigung bei Wahrnehmung, Erkennung und Verarbeitung von Information. Auch der Wunsch nach Kompetenz oder die Angst vor Kompetenzverlust, d.h. ein dem Menschen innewohnendes Bedürfnis, die Situation zu beherrschen, ist ein starker Störfaktor. Mehr oder weniger stark ausgeprägte sicherheitsgefährdende Grundeineinstellungen („das kann mir nicht passieren“, „ich kann alles“) können vorhanden sein. Weitere Faktoren sind eine gestörte Reaktion auf Kritik („sich nichts sagen lassen“), eine Neigung zu impulsiven, undurchdachten Handlungen, aber auch ein mangelndes Vertrauen in die eigenen Fähigkeiten. Bei zu hoher Informationsdichte (Informationsflut) besteht die Gefahr, dass Informationen ausgeblendet, also überhaupt nicht mehr bewusst wahrgenommen werden. Auch werden Informationen verzerrt und „passend“ gemacht, besonders wenn neue Informationen von früher gemachten Erfahrungen zu stark abweichen. Gelegentlich werden Sachverhalte zu stark vereinfacht, um Schwierigkeiten besser bewältigen zu können. Weitere Störeinflüsse können echte Wissensmängel sein, und nicht zu vernachlässigen ist eine eingetretene physische und/oder psychische Erschöpfung.
Teambezogen besteht immer die Gefahr, dass eine „Mehrheitsmeinung“ entsteht, die dann von den Mitgliedern kritiklos übernommen wird und eigene Gedanken zurück gehalten werden. Auch kann es im Team zu einer gestörten Kommunikation durch eine unklare Sprache und gestörte Beziehungen im Team kommen. Organisationsbezogen sind unter anderem die vorhandenen Räumlichkeiten und die Raumausstattung, sowie die Dienstplangestaltung, die Personaldecke und der Personaleinsatz zu nennen.

Fehler

Als „Fehler“ kann sowohl ein unerwünschtes Ergebnis von Handlungen, eine falsche Handlung selbst, aber auch das Fehlen einer richtigen Handlung verstanden werden. Nach Reason (1990) gibt es folgende Klassifikation von Fehlern:

  1. Planungsfehler / Handlungsfehler Das angestrebte Ziel wird nicht erreicht in Folge einer Handlung, die anders ausgeführt wird als geplant oder einer richtig ausgeführten Handlung, der jedoch eine falsche Überlegung zugrunde liegt.
  2. Absichtliche Fehlhandlung (Regelverstoß, begründetes Abweichen von Verfahrensvorschriften, nicht Sabotage)
  3. Aktive / latente Fehler Aktive Fehler sind direkt sichtbar und lösen kritische Ereignisse, Zwischenfälle und Unfälle unmittelbar aus. („spitzes Ende“ einer Organisation) Latente Fehler entstehen durch sicherheitskritische Entscheidungen weitab vom Geschehen am Patienten. Beispiele sind bauliche Gegebenheiten, Dienstpläne, Ausbildung („stumpfes Ende einer Organisation)

Ergänzen lassen sich hier die Fehler in der Teamarbeit (fehlendes Bewusstsein für gemeinsames Problemverständnis, Notwendigkeit für Koordination, Aufgabenverteilung, Rollenverteilung etc.)

Strategien im Umgang mit Fehlern

Photo Eine fehlerhafte Handlung wirkt sich nur selten tatsächlich zu einem Fehler aus, oft kommt es lediglich zu „minimalen Ereignissen“, die bei erkannten Fehlhandlungen und deren anschließender Korrektur nur noch zu erhöhten Reibungsverlusten führt. Korrekturmöglichkeiten wirken wie Barrieren oder Schutzschilde, die die Auswirkung einer Fehlhandlung verhindern kann, bevor ein Fehler entsteht. In der Abbildung (Abb.1 ) kommt es im einen Fall zu einem Ereignis, hier ein menschliches Versagen, das durch eine technische Barriere aufgefangen wird, so dass es zu keiner Auswirkung kommt. Im anderen Fall werden alle Barrieren durchschlagen, so dass ein manifester Fehler entsteht. Bewährte Strategien zum Fehlermanagement sind:

  1. Fehler frühzeitig erkennen (mit Fehlern rechnen, Wahrnehmung verbessern, gegenseitige Rückmeldung)
  2. Fehlerauswirkung abschwächen (da ein Fehler häufig weitere Fehler nach sich zieht, bewusst eine Fehlerkette vermeiden oder unterbrechen; bei eingetretenem Fehler nicht versuchen, diesen allen zu beheben, sondern Teamressourcen nutzen)
  3. Entwicklung einer Fehlerkultur, die als Ursache für aufgetretene Fehler nicht das Versagen eines einzelnen Mitarbeiters („wer war schuld?), sondern fehlerhafte Systeme und Organisationstrukturen (wie kann ein Fehler verhindert werden) sieht.

Eine Möglichkeit hierzu sind Fehlermeldesysteme.

Meldesysteme

Der Wunsch und das Prinzip, aus Fehlern zu lernen, sind nicht neu in der Medizin. Beispiele sind Morbititäts- und Mortalitätskonferenzen, Peer-Reviews, Falldiskussionen etc. Hierbei stehen jedoch fachbezogene Aspekte im Vordergrund, der „human factor“ oder Systemfaktoren werden jedoch nicht betrachtet. Auch handelt es sich eher um retrospektive als um präventive Maßnahmen.
Das systematische Erfassen von Beinahe-Zwischenfällen (near misses) wurde schon in den 50er Jahren in der Luftfahrt eingeführt. Dieses System hat sich durchgesetzt, in Industrie und Luftfahrt ist es inzwischen seit vielen Jahren üblich: Mitarbeiter sprechen offen über Fehler und Beinahe-Zwischenfälle und melden diese an eine zentrale Stelle. Die Analyse der Informationen hat wichtige, mitunter lebensrettende Konsequenzen: Abläufe werden angepasst, Fehler von Einrichtungen und Anlagen behoben. Inzwischen sind nach diesem Vorbild verschiedene Meldesysteme im Gesundheitswesen etabliert worden (Critical Incident Reporting System, CIRS). Es ist anzunehmen, dass die Meldebereitschaft abnimmt, wenn persönliche Nachteile für den Meldenden zu erwarten sind. Anonyme Meldesysteme bieten hier eine hohe persönliche Sicherheit. Sie werden daher trotz mancher Nachteile häufig eingesetzt. Neben garantierter Anonymität sollte ein CIRS zudem folgende Charakteristika aufweisen, um eine hohe Meldebereitschaft zu bewirken und eine effektive Umsetzung von Maßnahmen zu gewährleisten:

  • von der Klinikleitung gewünscht und aktiv unterstützt
  • Straffreiheit
  • Freiwilligkeit
  • Unabhängigkeit von der Klinikleitung
  • Analyse durch Experten, die die Kompetenz und Entscheidungsgewalt zur Optimierung der Prozessabläufe haben (z.B. Erstellung von Algorithmen, Festlegung von Standards, Dienstanweisungen, Delegation von Ausbildung usw.)
  • zeitnahe Auswertung mit Feedback an die Mitarbeiter
  • Orientierung auf das System und nicht auf das Individuum.

Welche Ereignisse sind relevant für ein Meldesystem?

Photo Das sog. Eisbergmodell stellt die verschiedenen Zustände und Ereignisse grafisch dar (Abb. 2). Je schmaler ein Bereich ist, umso seltener ist er, aber auch umso höher das Ausmaß einer Schädigung oder das Risiko dafür. Die Mehrzahl der Betriebsabläufe geschieht ohne Besonderheiten (Normalbetrieb). Fehler oder Störungen (Event) reduzieren noch nicht die Sicherheit des Patienten, jedoch die kritischen Ereignisse (Incident) und stellen eine potentielle Gefährdung dar. Die Beinaheunfälle („Near-Miss“) unterscheiden sich von den Unfällen nur durch das Outcome. Die Unfälle („Adverse Event“) an der Spitze des Eisberges führen beispielsweise zu einer bleibenden gesundheitlichen Schädigung oder zum Tod des Patienten. Von einer Stufe zur nächsten wird von einer Zunahme um den Faktor 10 ausgegangen. Für ein Meldesystem von Bedeutung sind bereits Fehler und Störungen, die folgenlos geblieben sind. Eine Risikoerhöhung bedeuten sie dennoch, und gegebenenfalls hat nur ein erfolgreiches Risikomanagement Schlimmeres verhindert. Es wäre fahrlässig, ginge man davon aus, dass bei einer Wiederholung einer derartigen Störung erneut eine Fehlerauswirkung verhindert werden kann. Kritische Ereignisse (Incident) und Beinaheunfälle (Near-Miss) sind die beiden anderen Bereiche, aus denen Meldungen für ein CIRS stammen. Diese stellen Gelegenheiten dar, aus denen gelernt werden kann. Unfälle (Adverse Events) werden im CIRS nicht betrachtet, da es sich um Zwischenfälle mit negativem Outcome handelt. Zwar wäre es sicher interessant, auch diese möglicherweise sehr brisanten Fälle zu erfassen, jedoch wird dieser systematische Fehler bewusst in Kauf genommen, da er relativ klein ist, es hierfür andere Systeme für eine Erfassung gibt (z.B. Komplikationsstatistik), und die zugesicherte Sanktionsfreiheit für den Meldenden nicht aufrecht erhalten werden kann, da es sich eventuell um juristisch relevante Tatbestände und Sachverhalte handelt und damit staatsanwaltschaftliche Ermittlungen erfolgen und haftungsrechtliche Ansprüche geklärt werden.

CIRS im Bundeswehrkrankenhaus Hamburg

Das Bundeswehrkrankenhaus Hamburg hat die Erfahrungen aus Luftfahhrt und Industrie sowie bestehender Meldesysteme im Gesundheitswesen auf seine Krankenversorgung übertragen und ein strukturiertes Verfahren zur Meldung von Ereignissen und Beinahe- Zwischenfällen eingeführt. Durch das so genannte „Critical Incident Reporting System“ (CIRS) haben alle Mitarbeiter des Krankenhauses die Möglichkeit, anonym kritische Ereignisse und Risiken zu melden, die sonst vielleicht erst nach einem echten Unfall aufgefallen wären. Der Begriff „Fehler“ wird im CIRS bewusst vermieden, da er negativ belegt ist (Schuld). Es wird daher von „Ereignis“ bzw. „kritischem Ereignis“ gesprochen. Analog zur Industrie können dadurch Abläufe angepasst oder medizinische Geräte verbessert werden. Gleichzeitig stellt das Meldeverfahren sicher, dass kein Mitarbeiter befürchten muss, aufgrund seines ehrlichen Umgangs mit Fehlern angeprangert oder sanktioniert zu werden.

CIRS in der Praxis

Wenn ein Mitarbeiter ein kritisches Ereignis erlebt oder beobachtet, das er melden möchte, füllt er ein Formular entweder am PC aus oder er verwendet ein Formular zum Ausdrucken (im Intranet verfügbar). Anonym, kurz und knapp und möglichst allgemein formuliert wird der Vorgang geschildert. Außerdem werden einige Angaben erfragt (Berufsgruppe, Bezug zum Ereignis, Altersgruppe des Patienten, Ort und Uhrzeit des Ereignisses und Arbeitsdauer bis zum Eintritt des Ereignisses), die benötigen werden, um die Risiken und Gefahren systematisch zu erfassen. Mit der Hauspost wird die Mitteilung dann in einem verschlossenen Umschlag an die „Arbeitsgruppe CIRS“ geschickt, wo sie gesichtet und ausgewertet wird. Darüber hinaus wird die Schilderung das Sachverhaltes noch einmal genau auf Anonymität überprüft.

Das Verfahren

Das Verfahren ist freiwillig und anonym. Namen von Patienten oder Mitarbeitern werden nicht erfasst. Es wird kein Versuch seitens der Beteiligten unternommen, die Namen der meldenden oder beteiligten Mitarbeiter in Erfahrung zu bringen. Mitarbeiter aller Berufsgruppen können Meldebögen anlegen. Es sollen solche unerwünschten Ereignisse gemeldet und bearbeitet werden, die man unter patienten- und mitarbeiterbezogenen Sicherheitsaspekten verändern oder verhindern möchte. Vor allem sollen bevorzugt diejenigen Mitarbeiter dokumentieren, die an dem Ereignis beteiligt sind. Die Meldung eines lediglich beobachteten Ereignisses ist jedoch ebenso möglich. Die Meldungen werden durch ein interprofessionelles, in der Patientenbetreuung erfahrenes Analyseteam ausgewertet und bewertet. Die Entwicklung und Umsetzung von geeigneten systemverbessernder Maßnahmen erfolgt auf der Basis der Ergebnisse des Analyseteams innerhalb der zuständigen Abteilungen/ Einheiten. Die „Schuldfrage“ ist im CIRS nachrangig. Daher wird ein sanktionsfreier Umgang mit der Meldung unerwünschter Ereignisse zugesichert. Das Verfahren ist transparent: Alle Prozesse der Be- und Verarbeitung der eingetroffenen Meldungen sind für jeden Mitarbeiter einsehbar. Die Ergebnisse des CIRS werden regelmäßig allen Mitarbeitern unter Wahrung des Anonymitätsprinzips im Rahmen eines strukturierten Berichtswesens mitgeteilt.

Meldefähige unerwünschte Ereignisse

Gemeldet werden sollen:

  • Unerwünschte Ereignisse, die zu Schäden führen könnten, ohne dass Schäden eingetreten sind.

Nicht im CIRS bearbeitet werden:

  • Medizinische Komplikationen oder Nebenwirkungen, die trotz sachgerechter Behandlung und ordnungsgemäßer Aufklärung aufgetreten sind (so genannter „schicksalshafter Verlauf”). Ein CIRS ist keine Komplikationsstatistik.
  • Ereignisse, welche zu einem deutlichen oder gar bleibenden Schaden bei einem Patienten oder einem Mitarbeiter geführt haben.

Fälle mit möglichen straf- oder zivilrechtlichen Konsequenzen werden im CIRS nicht bearbeitet. Für diese Fälle sind die etablierten Meldewege zur Information der vorgesetzten Personen und Dienststellen einzuhalten.

Analyseteams

Die Analyseteams setzen sich aus jeweils einem Mitarbeiter aus dem ärztlichen und dem pflegerischen Bereich sowie einem Mitarbeiter aus dem medizinischen Qualitätsmanagement zusammen. Die Mitwirkung von klinisch tätigem Personal in einem Analyseteam ist freiwillig, die Berufung ist Ausdruck eines hohen Vertrauens in die medizinischen Kenntnisse und die hohe Sozialkompetenz des Berufenen. Es gibt jeweils ein Analyseteam aus einem konservativen und einem operativen Bereich sowie ein Analyseteam aus dem Bereich Anästhesiologie und Intensivmedizin. Die Analyseteams kommen anlassbezogen und periodisch zur Aus- und Bewertung der einzelnen Meldungen zusammen. Die Analyseteams leiten von sich aus keine Maßnahmen in den Medizinischen Abteilungen ein, sie machen lediglich Vorschläge für mögliche Maßnahmen zur Risikoreduktion.

Arbeitsgruppe CIRS

Die Arbeitsgruppe CIRS setzt sich aus den Mitgliedern der Analyseteams sowie dem Beauftragten für das Gesamtprojekt zusammen. Die AG CIRS trifft sich periodisch, vorwiegend zu Fragen der Systemverbesserung sowie zur Erstellung und Bewertung des Berichtswesens.

Abteilung Controlling/ Qualitätsmanagement

Die Abteilung Controlling/Qualitätsmanagement des Bundeswehrkrankenhauses Hamburg leitet und koordiniert das Verfahren und betreut das Umsetzungscontrolling.

Medizinische Abteilungen

Die Umsetzung der von den Analyseteams vorgeschlagenen Maßnahmen erfolgt in den betroffenen Abteilungen. Die Umsetzung erfolgt eigenverantwortlich, d.h. die ergriffenen Maßnahmen können auch von den Vorschlägen des Analyseteams abweichen oder vollständig unterbleiben, in aller Regel erfordert eine solche Entscheidung des Abteilungsleiter jedoch eine Begründung und einen Dialog. Die durch Struktur und Organisation vorgegebenen Unterstellungsverhältnisse, wie sie in militärischen Bereichen üblich sind, werden durch das CIRS nicht berührt.

Transparenz

Nach Abschluss der Bearbeitung werden die Meldungen und die erfolgten Maßnahmen im Intranet für alle Mitarbeiterinnen und Mitarbeiter veröffentlicht.

Beispiel

CIRS-Meldung 08-004
Meldender: Pfleger
Bezug zum Ereignis: Beteiligter
Patient: älter als 14 Jahre
Versorgungssituation: Routinebetrieb
Arbeitsdauer bis Ereignis: keine Angabe
Uhrzeit des Ereignisses: keine Angabe
Ort des Eregnisses: OP

Photo Text der Meldung (anonymisiert): Es werden zwei Fälle zum Umgang mit zentralen Venenkathetern (ZVK) auf peripheren Stationen gemeldet: Im ersten Fall geht es um einen Patienten, dessen geplanter operativer Eingriff aufgrund einer Kathetersepsis verschoben werden musste. Die vital bedrohliche Problematik wurde offensichtlich erst bei Ankunft im OP vom dort tätigen Personal erkannt, obwohl der Patient klinische Zeichen wie Fieber, Tachykardie und Bewusstseinstrübung bot. Der Katheter lag bereits den 27. Tag. Ein Schenkel des ZVK war mit einer dunklen, gelblichbräunlichen Flüssigkeit gefüllt, der zweite Schenkel mit einer frei laufenden Infusion bedient. Nach Entfernung des ZVK und Neuanlage musste der Patient der Intensivtherapie zugeführt werden.

Im zweiten Fall kam ein Patient in den OP, bei dessen liegendem ZVK ein Schenkel mit Vitamin C gefüllt und beschriftet und der zweite Schenkel mit einer frei laufenden Infusion versehen war. Bei der Überprüfung des Katheters im OP wurde festgestellt, dass keiner der beiden Schenkel rückläufig war. Auf eine Applikation von Medikamenten wurde verzichtet.

In beiden Fällen wird zudem bemängelt, dass anhand des Verbandes nicht ersichtlich war, wann dieser zuletzt erneuert wurde. Beschreibung der ergriffenen Maßnahmen: Es wurde jeweils mit der für den Patienten zuständigen Pflegekraft Kontakt aufgenommen, um nähere Informationen zu erhalten und zu geben. Es wurde geprüft, ob im Hause Verfahrensanweisungen für den Umgang mit ZVK vorhanden sind, dies sei - außer für die Intensivstation - nicht zutreffend. Die Meldung wurde von einem Analyseteam der AG-CIRS im Computer erfasst und bearbeitet. Hierbei wird das Ereignis einer Risikoanalyse unterzogen. Im ersten Schritt (Ursache) findet eine Zuordnung zu en Bereichen Technik/Material, Medikamente/Blutprodukte bzw. Mensch/Organisation statt. Der zweite Schritt (Bewertung) untersucht die Schwere der möglichen Folgen (nicht wahrnehmbar 0 – äußerst schwer 10, die Wahrscheinlichkeitdes Auftretens (unwahrscheinlich 0 – hoch 10) und die Wahrscheinlichkeit der Entdeckung (sofort 0 – erst nach Schadenseintritt 10). Das Computerprogramm errechnet aus den Eingaben eine Risikoprioritätszahl mit drei daraus folgenden Dringlichkeitsstufen und stellt darüber hinaus das aktuelle Ergebnis grafisch dar (Fehlerschwere / Eintrittswahrscheinlichkeit). In diesem Fall ergab sich eine hohe Priorität.

Als Erstmaßnahme wurde vom Analyseteam eine dringliche Meldung im Intranet erwirkt, die auf den korrekten Umgang mit zentralen Venenkathetern hinweist. Vom Analyseteam wurde folgende Empfehlung gegeben, die zusammen mit der anonymisierten Meldung an die Qualitätsbeauftragten verschiedener klinischer Stationen geschickt wurde:

Erarbeitung und striktes Befolgen einer Verfahrensanweisung für den Umgang mit zentralen Venenkathetern auf peripheren Stationen. Kontrolle der Beachtung dieser Anweisung durch Stationsärzte. Verzicht auf ‘Blocken’ von Katheterschenkeln mit Vitamin C, stattdessen kontinuierliche Beschickung jedes Katheterlumens mit Flüssigkeit (z.B. Infusion mit Drosselventil / Tropfenzähler / über Perfusor). Regelmäßige Verbandwechsel mit Kontrolle der Einstichstelle auf Entzündungszeichen sowie Kontrolle der Katheterlumen auf Durchgängigkeit und Rückläufigkeit. Markierung des Verbandes mittels wasserfesten Stiftes (Datum des Verbandwechsels). Ergebnis: Es wurde eine Verfahrensanweisung für den Umgang mit zentralen Venenkathetern erarbeitet, die für den gesamten Bereich des Bundesehrkrankenhauses verpflichtend ist. Die Verfahrensanweisungen sind im QMHandbuch des Bundeswehrkrankenhauses hinterlegt, das von jedem PC-Arbeitsplatz aus erreichbar ist. Eine Wiederholung derartiger oder ähnlicher Fälle ist seither nicht mehr bekannt geworden.

Fazit

Fehler sind normal: Menschen in Organisationen machen Fehler, und Organisationen haben Leistungsgrenzen mit einer möglichen Überforderung der Strukturen z.B. bei Großschadensereignissen. Beim Umgang mit Fehlern sind in der jüngeren Vergangenheit bedeutende Fortschritte erreicht worden. Ein Bestandteil davon sind Meldesysteme für kritische Ereignisse wie das vorgestellte CIRS, das es mittlerweile in mehreren Krankenhäusern gibt. Wesentliche Voraussetzung hierfür ist die Entwicklung einer positiven Fehlerkultur, die mit Fehlern offen umgeht. Hier bleibt allerdings noch einiges zu tun.

Datum: 18.12.2009

Quelle: Wehrmedizin und Wehrpharmazie 2009/4