Prof. Dr. Geraedts, Referent:
Sehr geehrter Herr Präsident! Meine lieben Damen und Herren! Nachdem
Herr Henke in seinem Referat mehr den politischen Hintergrund zur Mindestmengenvereinbarung
erläutert hat, möchte ich in meinem Beitrag den wissenschaftlichen Hintergrund
von Mindestmengen thematisieren, indem ich Ihnen die Evidenz zur Beziehung
zwischen Quantität und Qualität in der Medizin darlege.
Dazu möchte ich erstens den theoretischen Rahmen
der Beziehung zwischen Leistungsfrequenz und medizinischen Versorgungsergebnissen
erörtern. Zweitens möchte ich die Studienlage zur Evidenz – von Quantitäts-Qualitäts-Beziehungen
– anhand der wichtigsten Reviews der letzten
zehn Jahre sowie einzelner erst kürzlich publizierter Studien aufarbeiten.
Drittens werde ich einige der aktuell diskutierten Argumente für und
gegen Mindestmengen und die daraus resultierende Zentralisierung von
Leistungen anführen. Und zuletzt möchte ich daraus meine Schlussfolgerungen
ziehen.
In vielen Diskussionen zu den Mindestmengen wird
die Beziehung zwischen der medizinischen Versorgung einzelner Patienten
und deren Resultaten oft holzschnittartig reduziert betrachtet. Dabei
geht man davon aus, dass das Versorgungsergebnis, das ein Patient
erwarten kann, umso besser ist, je höher die Leistungsfrequenz der
Ärztinnen und Ärzte bzw. der Einrichtungen ist, die diese Leistungen
erbringen. Zur Erklärung wird die auf den ersten Blick sehr einleuchtende
und von Herrn Henke bereits erwähnte Hypothese „Übung macht den Meister“
angeführt.
Unstrittig ist sicherlich für jeden von uns, dass
Erfahrung notwendig ist, um gerade komplexe medizinische Prozeduren
mit hoher Qualität durchführen zu können. Unstrittig ist aber auch,
dass es außer der Leistungsfrequenz noch eine Vielzahl anderer Einflussfaktoren
auf das Versorgungsergebnis gibt. Dabei sind zunächst patientenseitige
Faktoren zu nennen: Je nachdem, welche Patienten welchen Alters, mit
welchem Schweregrad, mit welcher Komorbidität
oder welcher Sozialschicht in einer Einrichtung behandelt werden,
sieht das Versorgungsergebnis trotz gleicher Prozesse und gleicher
Leistungsfrequenz oftmals sehr unterschiedlich aus.
Gleiches gilt für die verschiedenen Strukturen
und Prozesse der medizinischen Versorgung. Je nachdem, wie eine Einrichtung
organisiert ist, welche strukturellen Voraussetzungen gegeben sind
und wie die Qualifikation des gesamten Versorgungsteams beschaffen
ist, können wiederum gleiche Leistungsfrequenzen mit sehr unterschiedlichen
Ergebnissen einhergehen. Und zuletzt spielt natürlich auch noch die
Biologie der Patienten und zum Beispiel auch deren Compliance mit Nachsorgemaßnahmen eine wichtige Rolle dabei,
welche Ergebnisse letztlich zu messen sind.
Wenn nun anhand von Studien festgestellt werden
soll, ob bei bestimmten medizinischen Prozeduren wirklich der Einflussfaktor
„Leistungsfrequenz“ eine wichtige Rolle für gute Ergebnisse spielt,
müssen alle diese Einflussfaktoren bei den Studienanalysen ausreichend
berücksichtigt worden sein. Nur auf der Basis solcher Studien können
Mindestmengen festgelegt werden; denn der Gesetzgeber formuliert ja
im Sozialgesetzbuch ausdrücklich – das hat Herr Henke bereits erwähnt
–, dass Mindestmengen nur für solche Leistungen definiert werden sollen,
bei denen das Ergebnis in besonderem Maße von der Leistungsfrequenz
abhängt.
Um nun aus der Fülle von inzwischen mehr als 1 000
Studien zur Beziehung von Leistungsfrequenz und Ergebnis solche Prozeduren
auswählen zu können, bei denen diese Beziehung wissenschaftlich als
gesichert bezeichnet werden kann, hat das amerikanische National Cancer
Policy Board Kriterien formuliert, an denen
man sich orientieren kann. Demnach kann man dann von einer evidenzbasierten
Quantitäts-Qualitäts-Beziehung sprechen, wenn erstens die Beziehung
logisch und plausibel erscheint, zweitens der beobachtete Effekt durch
mehrere Studien abgesichert wurde, drittens der beobachtete Trend
in den verfügbaren Studien konsistent vorhanden war und viertens die
Größe der Ergebnisunterschiede substanziell und klinisch bedeutsam
ist sowie auf der Basis strenger statistischer Kriterien nachgewiesen
wurde.
Auf der Basis dieser Kriterien möchte ich Ihnen
nun die Studienlage darstellen.
Die erste umfassende Literaturanalyse zur Beziehung
von Quantität und Qualität in der Medizin stammt vom Centre for
Reviews and Dissemination
des nationalen britischen Gesundheitsdienstes und dem Nuffield
Institute for Health. Deren Forscher hatten
1996 mehr als 200 Studien zur Quantitäts-Qualitäts-Beziehung analysiert.
Dabei wurde vor allem folgender Aspekt deutlich: Die Studienlage war
zwar für einige Prozeduren konsistent, für die weitaus meisten Prozeduren
aber inkonsistent. Das heißt, es gab Prozeduren, bei denen mit steigender
Fallzahl immer positivere Ergebnisse berichtet wurden, beispielsweise
für Pankreaskarzinomresektionen oder herzchirurgische Eingriffe. Daneben
gab es Prozeduren, bei denen einige Studien positive, andere Studien
keine Unterschiede in Abhängigkeit von den Fallzahlen zeigten, wie
beispielsweise für die Herzinfarktbehandlung. Und es gab Prozeduren,
bei denen alle bis dahin verfügbaren Studien keine Verbesserungen
mit steigender Fallzahl – wie beim Magenulkus – oder sogar eine Verschlechterung
der Ergebnisse bei sehr hohen Fallzahlen – wie bei Kateraktoperationen
– ergaben.
Die meines Erachtens bedeutendste Literaturanalyse
der letzten Jahre stammt von Ethan Halm und Koautoren. Deren wesentliches
Verdienst besteht darin, dass sie zum einen die bislang vorherrschende
immense Studienheterogenität deutlich herausgearbeitet haben. Zum
anderen haben Halm et al. die größtenteils mangelhafte Methodik von
Studien zur Quantitäts-Qualitäts-Beziehung eindrucksvoll aufgedeckt.
Als größtes Manko der Studien fiel auf, dass nur
wenige Studien die jeweils von den Ärzten oder Einrichtungen genutzten
diagnostischen und therapeutischen Verfahren bei den Analysen einbezogen
hatten. Genauso wenig wurden der Schweregrad und die Komorbiditäten der jeweiligen Patientenpopulationen berücksichtigt.
Stattdessen beachteten viele Studien allein die Leistungsfrequenz
als Einflussfaktor auf das Ergebnis und verglichen dann – wie so oft
– Äpfel mit Birnen.
Deshalb raten diese Autoren auch dazu, das zumeist
zitierte Ergebnis ihrer
Analyse nur mit Vorsicht zu interpretieren, nämlich dass rund 70 Prozent
der Studien eine positive Assoziation von entweder Arztfallzahlen
oder Einrichtungsfallzahlen mit den Ergebnissen berichteten.
Eine ähnliche, wenn auch für die Arztfallzahlen
etwas geringere Assoziation von 53 Prozent haben auch Gandjour,
Lauterbach und Co kürzlich in ihrem Review
publiziert. Wesentlich an diesem Review war, dass hier gezeigt werden konnte, dass gerade in
den letzten fünf Jahren die methodische Qualität der Studien besser
geworden ist.
Eine solch methodisch herausragende Arbeit haben
John Birkmeyer und Koautoren 2002 im „New
England Journal“ publiziert. Hierbei flossen Daten von mehr als 2,5
Millionen Patienten ein, die im Zeitraum von 1994 bis 1999 behandelt
worden waren.
Für acht Karzinomoperationen und sechs Herz- bzw.
Gefäßoperationen wies Birkmeyer positive Assoziationen der Leistungsfrequenz der
Einrichtungen mit der Operations- bzw. 30-Tages-Mortalität nach. Beeindruckend
sind sicherlich diese Ergebnisse hier für Pankreas- und Ösophagus-Karzinomresektionen.
Beim Pankreaskarzinom starben beispielsweise in der Gruppe der Einrichtungen
mit weniger als einem Eingriff im Durchschnitt der letzten sieben
Jahre 16,3 Prozent der Patienten, während in der Gruppe mit mehr als
16 Eingriffen pro Jahr nur 3,8 Prozent innerhalb von 30 Tagen nach
der Operation verstorben waren.
Was aber zusätzlich auffällt, ist, dass es auch
Prozeduren zu geben scheint, bei denen die höchsten Leistungsfrequenzen
trotz statistischer Signifikanz – und das ist bei diesen Fallzahlen
kein Wunder – mit nur geringen klinischen Unterschieden einhergehen.
Bei der Colektomie ist zu sehen, dass Kliniken
mit mehr als 124 solcher Eingriffe pro Jahr eine Kurzzeitmortalität
von 4,5 Prozent aufwiesen, während die Mortalität in Kliniken mit
durchschnittlich weniger als 33 Eingriffen pro Jahr 5,6 Prozent betrug.
Genauso sah es auch bei Herz- und Gefäßoperationen
aus. Auch hier unterschieden sich die Mortalitätsdifferenzen in den
höchsten und niedrigsten Frequenzgruppen zwar signifikant voneinander,
jedoch waren die klinischen Unterschiede mitunter minimal. Bei der
Carotisendarteriektomie beispielsweise starben
17 von 1 000 Operierten in solchen Kliniken, die weniger als
40 Eingriffe pro Jahr zählten, während 15 von 1 000 Patienten
in Kliniken mit mehr als 164 Eingriffen pro Jahr starben.
Insgesamt zeigt sich also eine sehr variable Effektstärke
bei der Assoziation von Leistungsfrequenz in Kliniken und dem hier
betrachteten Ergebnisparameter. Klinisch hoch bedeutsame Assoziationen
sind bisher also nur bei wenigen Prozeduren festzustellen.
Was bei der Birkmeyer-Studie kaum beachtet wurde, ist die Tatsache, dass
der Datensatz nur Daten von über 65 Jahre alten Patienten enthält.
Emily Finlayson und Koautoren – darunter war wiederum Birkmeyer
– haben dagegen die Quantitäts-Qualitäts-Beziehung der gleichen acht
Krebsoperationen wie bei Birkmeyer an einem
Datensatz untersucht, der alle Altersgruppen umfasste. Bei insgesamt
knapp 200 000 operierten Patienten fanden sie nur noch für Ösophagus-
und Pankreasresektionen die signifikante Assoziation von Leistungsfrequenz
der Kliniken und Kurzzeitmortalität. Das Alter spielt also eine wesentliche
Rolle dabei, ob eine Behandlung in Zentren mit hohen Fallzahlen in
Bezug auf diesen Ergebnisparameter wirklich Vorteile für die Patienten
bringt.
Wiederum von John Birkmeyer mit Koautoren stammt eine Studie, die einen anderen
wesentlichen Aspekt der Mindestmengendiskussion beleuchtet. Dabei
geht es um die Frage, ob es ausreicht, darauf zu achten, dass die
Fallzahlen von Einrichtungen hoch sind, oder ob vielleicht die Fallzahlen
der behandelnden Ärztinnen und Ärzte wichtiger sind. Basis der Analyse
waren wiederum die Daten von über 65-jährigen Amerikanern. Bei vier
Karzinom- und vier Herz- bzw. Gefäßoperationen fand die Studie signifikante
positive Assoziationen der Leistungsfrequenz des Operateurs mit den
Versorgungsergebnissen.
Noch interessanter als dieser Effekt scheint mir
aber an der Studie zu sein, dass erstmals untersucht wurde, welchen
Anteil an dieser Assoziation die Operateurleistungsfrequenz im Verhältnis
zur Einrichtungsleistungsfrequenz hatte. Danach gab es Prozeduren,
bei denen bis zu 50 Prozent des Effekts, der zunächst der Leistungsfrequenz
von Ärzten zugesprochen worden war, bei genauer Analyse durch die
Leistungsfrequenz der Einrichtungen erklärt wurden. Dies war hier
bei Pankreasresektionen der Fall.
Genauso gab es Prozeduren – hier beim Aortenklappenersatz
–, bei denen 100 Prozent des Effekts der Leistungsfrequenz der
Einrichtungen allein auf die Fallzahl der Ärzte zurückzuführen waren.
Bei dieser Prozedur spielte die Fallzahl der Einrichtungen überhaupt
keine Rolle. Bei Mindestmengenvereinbarungen sollte also für jede
Prozedur sehr genau überlegt werden, ob die Fallzahlen für Ärztinnen
und Ärzte oder aber für Einrichtungen wichtiger sind.
Wo aber – das heißt: in welcher Höhe – könnten
jetzt Mindestmengen aufgrund dieser Studienergebnisse angesetzt werden?
Die Autoren der meisten Reviews warnen davor,
konkrete Fallzahlen abzuleiten. Es heißt, dazu sei die Evidenz einfach
nicht ausreichend.
Ich möchte das Problem bei der Festlegung expliziter
Grenzen am Beispiel der Studien zu Pankreasresektionen verdeutlichen.
Hier wird sehr deutlich, dass auch in den Fällen, wo es für eine Prozedur
viele verschiedene, konsistent mit positiven Mengeneffekten einhergehende
Studien gibt, kaum zwei Studien vorliegen, bei denen dieselben Grenzwerte
genutzt wurden.
In 12 Studien zum Einfluss der Leistungsfrequenz
auf die Mortalität beim Pankreaskarzinom wurden beispielsweise bisher
insgesamt 20 verschiedene Frequenzgruppen untersucht. Einmal wurde
„niedrige Eingriffsfrequenz“ mit weniger
als einem Fall pro Jahr – hier bei den Studien von Birkmeyer
und von Wade –, ein anderes Mal mit weniger als 50 Fällen pro
Jahr wie hier bei Gordon definiert. Dagegen lag die Definition von
„hoher Eingriffsfrequenz“ zwischen mindestens einem Fall pro Jahr
und mehr als 200 Fällen pro Jahr. Das heißt, Kliniken oder Ärzte,
die in der einen Studie zur Gruppe mit niedriger Eingriffsfrequenz
gezählt wurden, gehörten in der anderen Studie zur Gruppe mit hoher
Eingriffsfrequenz.
Interessanterweise berichteten aber nicht diejenigen
Studien über die größten Mortalitätsdifferenzen, die die höchsten
Unterschiede in den Eingriffsfrequenzen miteinander verglichen. Die
höchste Mortalitätsdifferenz mit 16,8 Prozent zeigte die Studie von
Gordon 1995. Hier wurden Krankenhäuser mit weniger als sechs und mehr
als 20 Operationen verglichen. Birkmeyer fand 1999 schon eine beachtliche Mortalitätsdifferenz
von 11,9 Prozent bei Einrichtungen, die mindestens eine Pankreaskarzinomoperation
pro Jahr durchführten im Vergleich zu Krankenhäusern mit weniger
als einer Operation pro Jahr im Durchschnitt.
Sogar bei den gut untersuchten Pankreaskarzinomoperationen
kann meines Erachtens anhand dieser vorliegenden Evidenz keine empirische
Mindestmenge abgeleitet werden.
Alle bisher von mir angeführten Studien haben sich
darauf beschränkt, jeweils Gruppen von Leistungserbringern zu bilden
und dann die Ergebnisse der Gruppen miteinander zu vergleichen. Zwei
Anfang 2004 erschienene Studien haben sich nun der Frage gewidmet,
ob diese Gruppenbildung überhaupt zu homogenen Entitäten führt. Die
gezeigte Grafik stellt Ergebnisse einer Studie von Peterson zur Koronarchirurgie
mit knapp 270 000 Eingriffen dar, die in den Jahren 2000 und 2001
in 439 US-Krankenhäusern vorgenommen wurden. Jeder Punkt repräsentiert
eine Klinik, deren Fallzahl auf der x-Achse und deren adjustierte
Mortalität auf der y-Achse abzulesen ist. Die Autoren haben die Kliniken
zunächst auch wieder in vier Frequenzgruppen eingeteilt und konnten
zeigen, dass die Gruppe der Kliniken mit weniger als 150 Fällen pro
Jahr signifikant schlechter war in Bezug auf die Mortalität als die
Gruppe der Kliniken mit mehr als 450 Fällen pro Jahr.
Legt man nun eine Gerade auf den Wert von 2,5 Prozent,
der von der Gruppe der besten Kliniken erreicht wurde, erkennt man
unschwer, dass diesen Wert nicht nur Kliniken mit hoher Fallzahl erreichen,
sondern ebenfalls viele Kliniken mit geringer Fallzahl. Sogar in der
Gruppe der Kliniken mit weniger als 150 Fällen finden sich viele Kliniken
mit guten Ergebnissen.
Was könnte nun passieren, wenn diese Grenze zur
Mindestmenge erklärt würde? Die zukünftigen Patienten könnten dann
entweder von Kliniken behandelt werden, die bei höherer Fallzahl gleich
schlechte oder gleich gute Ergebnisse haben, was die Mortalität angeht.
Das würde keinen positiven Qualitätseffekt bringen. Oder aber die
Patienten werden von Kliniken mit höherer Frequenz und besseren Ergebnissen
behandelt. Das wäre also gut. Zuletzt besteht aber auch die Möglichkeit,
dass nun mehr Patienten in Kliniken mit höherer Fallzahl, aber schlechteren
Ergebnissen behandelt würden. Das bedeutete insgesamt eine Qualitätsverschlechterung.
Zu einem vergleichbaren Ergebnis kamen auch Rogowski
et al. in einer Studie zur Quantitäts-Qualitäts-Beziehung bei der
Versorgung von Frühgeborenen, die 2004 veröffentlicht wurde. In dieser
Studie wurden die Daten von über 94 000 Frühgeborenen mit einem
Geburtsgewicht unter 1 500 Gramm analysiert, die zwischen 1995
und 2000 in den USA geboren wurden. Auch diese Studie ergab, dass
gute Überlebenschancen in Neonatalintensivstationen sowohl mit hohen
als auch mit niedrigen Fallzahlen erzielt wurden. Zwar verbesserte
sich das Mortalitätsverhältnis zunächst bis zu einer jährlichen Frequenz
von 50 versorgten Kindern, verschlechterte sich aber signifikant bei
höheren Fallzahlen. Das ist sicherlich bereits ein bemerkenswertes
und diskussionswürdiges Ergebnis.
Einem anderen Ergebnis der Studie kommt meines
Erachtens aber eine noch größere Bedeutung zu. Die Autoren haben auch
untersucht, inwieweit anhand der Fallzahl als Surrogatparameter für
Qualität denn wirklich zukünftig positive Ergebnisse prognostiziert
werden können. Das ist es ja, was wir mit den Mindestmengen erreichen
wollen. Als Ergebnis stellten sie fest, dass mit den Daten zur Fallzahl
aus den Jahren 1995 bis 1998 nur 1 Prozent der Mortalität in den Jahren
1999 und 2000 vorhergesagt werden konnte. Dagegen erklärten die Versorgungsergebnisse
der Jahre 1995 bis 1998 rund 35 Prozent der Variabilität der Mortalität
in den darauf folgenden Jahren. Der Faktor „frühere Ergebnisse“ war
also 35 Mal besser als der Faktor „Leistungsfrequenz“ geeignet, als
Anhaltspunkt für zukünftige Ergebnisse zu dienen.
Eine Zentralisierungsstrategie in der Art, dass
die Versorgungseinrichtungen geschlossen würden, die im unteren Fünftel
der Häufigkeitsverteilung liegen, hätte elf Todesfälle vermeiden können.
Dagegen hätten 115 Leben gerettet werden können, wenn die Kliniken
mit schlechten Versorgungsergebnissen von der Frühgeborenenversorgung
ausgeschlossen worden wären.
Diese Studie stellt also ein starkes Argument gegen
die alleinige Verwendung von Mindestmengen als Surrogatparameter für
Qualität dar. Zumindest sollten frühere Ergebnisse berücksichtigt
werden, bevor Einrichtungen oder Ärztinnen und Ärzte von der Versorgung
ausgeschlossen werden.
Bevor ich zu den Argumenten pro und kontra Mindestmengen
komme, möchte ich noch kurz einen Aspekt in die Diskussion einbringen,
der bisher wenig berücksichtigt wurde. Dabei handelt es sich um Patientenpräferenzen.
Landläufig geht man davon aus, dass Patienten immer dazu tendieren
würden, die jeweils besten Versorgungseinrichtungen zu bevorzugen.
Eine Studie von Samuel Finlayson und Koautoren zeigt dagegen, dass
das so pauschal nicht gelten kann. Die Grafik veranschaulicht das
Risiko, das Patienten in Kauf nehmen würden, um bei erhöhtem operativen
Mortalitätsrisiko trotzdem in ihrem ortsnahen Krankenhaus behandelt
werden zu können.
Bei der Studie wurden 100 Patienten, die einer
elektiven Operation unterzogen werden sollten, gebeten, sich folgende
Entscheidungssituation vorzustellen: Gesetzt den Fall, Sie hätten
ein Pankreaskarzinom und das operative Mortalitätsrisiko wäre 3 Prozent
sowohl in der ortsnahen Klinik als auch im spezialisierten Zentrum,
das vier Autostunden entfernt liegt, wo würden Sie sich lieber behandeln
lassen? Bei dieser Auswahl entschieden sich alle Patienten für die
ortsnahe Behandlung. Mit jedem Prozentpunkt, den das Mortalitätsrisiko
in der ortsnahen Klinik höher dargestellt wurde als im Zentrum, nahm
der Prozentsatz der Patienten ab, die sich weiterhin ortsnah behandeln
lassen würden.
Interessant aber ist meines Erachtens, dass bei
einer 1-prozentigen Risikoerhöhung – das sind die Mortalitätsunterschiede
bei einigen der Prozeduren, die zum Beispiel von Birkmeyer untersucht worden waren – immer noch fast 75 Prozent
der Patienten lieber ortsnah behandelt würden. Bei 3-prozentiger Risikoerhöhung,
also einer Risikoverdoppelung in der ortsnahen Klinik im Vergleich
zum Zentrum, wären immer noch 45 von 100 Patienten bereit, dieses
Risiko zu tragen. Bei weiterer Risikoerhöhung bleibt am Ende eine
Gruppe von rund 20 Prozent der befragten Patienten übrig, die
fast jede Risikoerhöhung tragen würden, nur um nicht ins Zentrum zu
müssen.
Patientenpräferenzen sollten also auf jeden Fall
in die Mindestmengendebatte einbezogen werden.
In Anbetracht dieser Studienlage können eine Reihe
von Argumenten für und gegen die Einführung expliziter Mindestmengen
angeführt werden. Für die Patienten könnte ein Qualitätsgewinn resultieren,
indem sie nur noch von hoch erfahrenen und spezialisierten, interdisziplinär
arbeitenden Einrichtungen behandelt werden können. Demgegenüber lauert
aber die Gefahr, dass die Entscheidungsfreiheit der Patienten eingeschränkt
wird und dass eine ortsnahe Versorgung nicht mehr flächendeckend angeboten
wird. Genauso könnten Kontinuität und Koordination der Versorgung
leiden, wenn eine spezialisierte Nachbehandlung nur noch in Zentren
möglich sein wird und etablierte Versorgungsnetzwerke sowie Informations-
und Kommunikationswege durch die Zentralisierung zerstört werden.
Was uns Ärzte angeht, so ist auf der einen Seite
für die meisten stationär arbeitenden Ärztinnen und Ärzte mit einem
breiten Erfahrungsverlust zu rechnen. Dieser Verlust resultiert dann,
wenn viele Prozeduren und damit wahrscheinlich auch deren diagnostische
Abklärung sowie Weiterbehandlung zentralisiert werden. Auf der anderen
Seite werden diejenigen, die in den Zentren arbeiten,
eventuell höhere Fallzahlen und damit größere Erfahrung erzielen können.
Was sicherlich passiert, ist, dass die Weiterbildungskapazitäten
reduziert werden. Dadurch werden komplizierte Rotationsverfahren notwendig,
die unter anderem eine hohe räumliche Flexibilität von angehenden
Fachärztinnen und Fachärzten verlangen. Auch hier scheint offensichtlich,
dass damit negative Effekte auf die Vereinbarkeit von Beruf und Familie
einhergehen werden und dass die Attraktivität unseres Arztberufs weiter
sinkt.
Unter den möglichen Auswirkungen von Mindestmengen
auf Krankenhäuser bzw. die Versorgungsstrukturen ist zu nennen, dass
sich langfristig „centers of excellence“
für verschiedene Prozeduren ausbilden können. Von diesen Zentren könnten
die Patienten eventuell profitieren. In solchen Zentren wird möglicherweise
effizienter gearbeitet, weil eine optimale Auslastung der eingesetzten
Ressourcen zumindest theoretisch zu erwarten ist.
Ein Problem könnte jedoch darin bestehen, dass
Mindestmengen solche Leistungserbringer ausschließen, die trotz niedriger
Fallzahlen gute Ergebnisse für die Patienten erbringen, während solche
Leistungserbringer gefördert werden, die zwar hohe Fallzahlen, aber
schlechte Ergebnisse vorweisen. Von den Effekten her kaum abschätzbar
sind für mich die Veränderungen der Versorgungskapazitäten. Zum einen
wird ein Aufbau von Kapazitäten in Zentren und ein Abbau von Kapazitäten
bei Niedrigfrequenz-Leistungserbringern notwendig. Beides ist nur
langfristig möglich. Kurzfristig sind Wartelisten und Überbeanspruchung
in Zentren zu erwarten und Ineffizienzen bei Leistungserbringern mit
geringen Fallzahlen.
Zusammenfassend ergibt sich folgendes Fazit zur
Evidenz der Beziehung zwischen Quantität und Qualität in der Medizin:
Erstens ist die Beziehung zwischen Fallzahl und
Ergebnis hoch komplex. Die Hypothese „Übung macht den Meister“ reicht
als Erklärung einfach nicht aus. Denn wir sehen zweitens in vielen
Studien, dass Fallzahlen als Qualitätssurrogat bei vielen Prozeduren
nur eine geringe Erklärungskraft haben. Drittens sind explizite Mindestmengen
aus Studien bisher nicht evidenzbasiert ableitbar. Und viertens sollten
in jedem Einzelfall die möglichen positiven und negativen Effekte
abgewogen werden.
Was wir meines Erachtens brauchen, um konstruktiv
in der Mindestmengendebatte voranzukommen, ist zunächst Forschung
zu besseren Qualitätsindikatoren als der Leistungsfrequenz. Dabei
muss untersucht werden, welche Strukturen und welche Versorgungsprozesse
wirklich die besten Ergebnisse für die Patienten erzielen. Wer über
solche Strukturen verfügt und die besten Prozesse beherrscht und darüber
hinaus Rechenschaft über die eigenen Ergebnisse ablegen kann, sollte
meines Erachtens in Zukunft bei medizinischen Leistungen bevorzugt
werden.
Um die Zeit zu überbrücken, bis solche Erkenntnisse
vorliegen, sollten aber keine empirisch nicht belegbaren Mindestmengen
vereinbart werden. Bei solchen Prozeduren, für die eine Assoziation
von Quantität und Qualität ausreichend mit Studien belegt ist, könnten
meines Erachtens statt dessen zum Beispiel diejenigen 10 Prozent Einrichtungen
mit den geringsten Fallzahlen aus der Versorgung herausgenommen werden.
Diese Maßnahme sollte aber auf jeden Fall begleitend
evaluiert werden, damit keine vorschnellen Schlussfolgerungen zur
Beziehung von Quantität und Qualität in der Medizin gezogen werden.
Vielen Dank für Ihre Aufmerksamkeit.
(Beifall)
Prof. Dr. Dr. h. c. Hoppe, Präsident der Bundesärztekammer
und des Deutschen Ärztetages:
Vielen Dank, Herr Kollege Geraedts, für Ihren exzellenten Vortrag. Wir haben auf diesem
Wege jetzt eine politische und eine wissenschaftliche Ausdeutung der
gesamten Problematik und eine Einführung in die Problematik erhalten.
Dazu gehört auch der Antrag des Vorstandes der Bundesärztekammer, den
Herr Henke erläutern wird. Bitte schön, Rudolf Henke.
|