Eins für alles oder für alles ein anderes? Warum wir Daten in einem Wohlfahrtsverband am besten mit einem guten Zusammenspiel unterschiedlicher Systeme managen

Ob es um die Verwaltung von Klient_innendaten in einer Beratungsstelle geht, oder um das Datenbanksystem, mit dem ein Spitzenverband die Informationen zu seinen Mitgliedsverbänden, Trägern und Einrichtungen pflegt die Frage nach dem richtigen Softwaresystem im Kontext der Datenerfassung und -verwaltung stellt sich regelmäßig. Dabei spielt auch immer wieder die folgende Frage eine Rolle: Kann uns nicht jemand die umfassende Lösung aus einer Hand bieten – sozusagen das Rundum-Sorglos-Paket? 

Viele bunte Zahnräger, die ineinandergreifen

Nehmen wir als Beispiel eine Beratungsstelle, die täglich mit der Eingabe und Analyse von Klient_innendaten konfrontiert ist. Die Mitarbeiter_innen kämpfen fast buchstäblich mit einer Software, die zwar viele Funktionen bietet, deren Benutzung jedoch intuitivem Verständnis und effizienten Abläufen oft entgegensteht.  

Schon bei der Eingabe der Daten fehlt es an Unterstützungsfunktionen wie Autovervollständigung, die am häufigsten einzutragenden Werte sind im Dropdown-Feld ganz unten angeordnet, die Reihenfolge der Eingabefelder passt nicht zum üblichen Ablauf in der Beratung und ständige Klicks durch schlecht optimierte Menüsysteme fressen wertvolle Zeit, die für die Beratung dringend gebraucht wird. In der subjektiven Wahrnehmung der Nutzer_innen können diese und andere Probleme oft nicht mal so konkret benannt werden. Häufig heißt es dann: Es macht keinen Spaß damit zu arbeiten. Das mag unsachlich klingen, ist aber in der Regel ein ernstzunehmender Hinweis auf mangelnde Nutzer_innen-Freundlichkeit. 

Auch die Arbeit mit den eingegebenen Daten ist nicht optimal. Filter- und Sortiermöglichkeiten sind begrenzt und die statistische Auswertung der Daten ist unverständlich und unflexibel. Die erstellten Visualisierungen entsprechen nicht den gewünschten Qualitätsstandards. 

Letztlich könnte man mehr mit den Daten anfangen, wenn man sie exportieren und in anderen Systemen damit weiterarbeiten könnte. Aber auch hier sind die Möglichkeiten begrenzt. Die Exportformate sind für die Weiterverarbeitung nicht geeignet und nicht alle relevanten Informationen aus dem System sind im Export enthalten. Die für Kostenträger zu erstellenden Statistiken werden dann doch wieder “händisch” aus dem System ausgewertet oder teilweise sogar von vorneherein mit Hilfe einer parallelen Datenerfassung auf Papier oder in der Tabellenkalkulationssoftware erstellt. 

Tatsächlich spielt gerade der letzte Punkt eine besondere Rolle, wenn es um die Frage geht, worauf man nun bei der Auswahl eines neuen Systems achten sollte. Man könnte nämlich auch zu der Einschätzung kommen, dass die Möglichkeit Daten auch außerhalb dieses Systems nutzen zu können, nur aufgrund der ersten beiden Aspekte relevant ist. Wenn Eingabe und Nutzung der Daten innerhalb des Systems zufriedenstellend sind, kann man bei der Frage des Exports auch Abstriche machen. Gesucht wird also das Rundum-Sorglos-Paket, welches aus sich selbst heraus alle Anforderungen erfüllt. 

Erkenntnisse aus dem Projekt CariData 

Im Projekt CariData des Deutschen Caritasverbandes beschäftigen wir uns mit der Frage, wie Daten in Beratungsstellen erfasst und insbesondere auch für statistische Zwecke verwendet werden. Herausforderungen und Probleme wie die oben beschriebenen sind uns in diesem Zusammenhang bereits an verschiedenen Stellen begegnet und damit verbunden auch immer wieder der große Wunsch nach der einen einheitlichen Lösung, mit der alle zufrieden sein können. 

Was wäre der Vorteil einer solchen Lösung? Welche Argumente sprechen dafür? 

  • Einheitlichkeit: Eine einheitliche Softwarelösung verspricht konsistente Prozesse und Datenstrukturen über alle Einrichtungen hinweg. Dies soll die Vergleichbarkeit und Zusammenführung von Daten vereinfachen. 
  • Benutzerfreundlichkeit: Theoretisch bietet eine zentrale Lösung eine einheitliche Benutzeroberfläche, was die Einarbeitungszeit verkürzt und die tägliche Arbeit mit dem System vereinfacht. 
  • Wartung und Support: Ein einziger Anbieter für das Gesamtsystem bedeutet, dass nur eine Anlaufstelle für Wartung und Support notwendig ist. Das vereinfacht die Verwaltung und spart potenziell Kosten. 
  • Integrierte Funktionen: Eine All-in-One-Lösung kann theoretisch alle benötigten Funktionen aus einer Hand bieten, von der Datenerfassung über die Analyse bis hin zum Reporting.

Aber ist das Rundum-Sorglos-Paket wirklich DIE Lösung?

Die Praxis zeigt, dass ein einziges System selten allen Anforderungen gerecht wird. Die Gründe dafür sind vielfältig: 

  • Spezifische Bedürfnisse: Jede Einrichtung und ihr jeweiliger Kontext hat ihre eigenen, oft sehr spezifischen Anforderungen an die Datenerfassung und -verarbeitung. Ein All-in-One-System, das versucht, alles abzudecken, erreicht oft nicht die Tiefe oder Flexibilität, die in bestimmten Bereichen benötigt wird. 
  • Schnelle Anpassungsfähigkeit: Die Bedürfnisse und gesetzlichen Rahmenbedingungen ändern sich regelmäßig. Ein monolithisches System kann oft nicht schnell genug angepasst werden, ohne erhebliche Kosten und Aufwand. 
  • Innovationshemmung: Die Bindung an einen einzigen Anbieter kann Innovation hemmen. Es fehlt der Wettbewerb, der normalerweise zu besseren, effizienteren Lösungen führt. 
  • Risiko der Anbieterabhängigkeit: Eine zu starke Abhängigkeit von einem Anbieter birgt Risiken, von Preissteigerungen bis hin zur Gefahr, dass der Anbieter die Entwicklung des Produkts einstellt oder die Geschäftsbeziehung anderweitig beendet wird. 

Die Erfahrungen aus dem Projekt CariData und ähnlichen Initiativen weisen darauf hin, dass der Schlüssel zu einer zukunftsfähigen Datenverwaltung in zwei Grundprinzipien liegt: Interoperabilität und Modularität. Diese Ansätze ermöglichen es, die besten verfügbaren Lösungen für spezifische Bedürfnisse zu nutzen und dabei ein hohes Maß an Flexibilität und Anpassungsfähigkeit zu bewahren.

Interoperabilität ermöglicht Kooperation bei lokaler Wahlfreiheit 

Interoperabilität gewährleistet, dass verschiedene Systeme und Anwendungen effektiv zusammenarbeiten können. Dies ermöglicht den Austausch und die Zusammenführung von Daten über verschiedene Plattformen hinweg. Die Möglichkeit Daten aus dem System zu extrahieren und in andere Prozesse einzubinden ist somit nicht die oben beschriebene Notlösung, sondern gehört zu den Kernfunktionen eines Systems. Hierfür braucht es klare technische und inhaltliche Standards für die Daten. Sie müssen das System nicht nur in geeigneter Form verlassen können, sondern von anderen Systemen auch verstanden werden.

Der Wunsch nach Einheitlichkeit wird also insofern erfüllt, dass die Definition dessen, was ein System erfasst und wiederum für andere Systeme bereitstellt, vereinheitlicht ist. Die Implementierung dieser Definition in tatsächliche Software bleibt aber Aufgabe unterschiedlicher Anbieter auf einem freien Markt. Das ermöglicht z.B. auch im Falle eines Trägerübergreifenden statistischen Erfassungsprozesses eine Entscheidungsfreiheit der Träger, was den Einsatz von Software für die Erfassung von Daten angeht. Auf diese Weise werden Monopolstellungen einzelner Anbieter mit all ihren Nachteilen für deren Kunden vermieden. Zudem vermeidet man auch die Entstehung einer Software-Monokultur. Eine solche stellt nämlich auch ein erhebliches Sicherheitsrisiko dar. Potenzielle Angreifer_innen können so mit dem Ausnutzen einer einzelnen Sicherheitslücke in einer Software, die von allen verwendet wird, gleich sehr große Mengen an Daten erbeuten, was den Angriff zugleich interessanter macht. 

Die Standardisierung sollte dabei immer nur so weit gehen, wie sie für die operative Ebene wirklich Vorteile bietet, weil sie eben Synergieeffekte schafft. Letztlich ist das richtige Maß an Standardisierung und Eigenständigkeit essenziell für funktionierende Datenflüsse in einem föderalen Wohlfahrtsverband. Natürlich ist das keine triviale Aufgabe, denn dieses richtige Maß muss durch regelmäßiges Nachjustieren gefunden werden. Damit verbunden sind auch immer wieder Aushandlungsprozesse und ggf. auch Konflikte, die gelöst werden müssen. Zudem sollten die lokal eingesetzten Systeme geprüft und bestenfalls zertifiziert werden. All dies ist jedoch eine wichtige Investition in die eigene (Daten)Souveränität.

Austauschbare Software-Module statt Wechsel von einem All-in-One-System zum anderen

Eng verwandt mit der Interoperabilität ist die Modularität. Durch klare Standards ist es möglich ein System aus verschiedenen Komponenten aufzubauen, die die gleiche Sprache sprechen und so miteinander kommunizieren können. Ein konkretes technisches Beispiel ist eine Datenbank, die über eine standardisierte Schnittstelle verfügt, über welche Daten nach einem üblichen Verfahren gelesen und geschrieben werden können. Unterschiedliche Softwarekomponenten (z.B. ein Dateneingabesystem) können nun auf diese Datenbank zugreifen. Eine weitere Softwarekomponente könnte ein Analysesystem sein, welches automatisch Inhalte aus der Datenbank ausliest und wichtige Kennzahlen in anschauliche Grafiken umwandelt. Stellt sich nun heraus, dass eine dieser Komponenten nicht (mehr) den Anforderungen genügt, ist es möglich, auch eine einzelne Komponente auszutauschen und entsprechend ggf. nur einen einzelnen Anbieter zu wechseln.  

Aber wie soll das finanziert werden? Ein weiterer Vorteil dieses Modells ist auch, dass auch Open-Source-Komponenten, zum Einsatz kommen können, solange diese den Anforderungen genügen. Dabei handelt es sich um Software, deren Quellcode offen verfügbar ist und für deren Nutzung unter einer offenen Lizenz möglich ist, weshalb keine Lizenzgebühren anfallen. Lediglich für deren Installation und Wartung und ggf. für notwendige Infrastruktur (Server) können Kosten anfallen. Erst wenn diese an ihre Grenzen stoßen, muss für einzelne Komponenten entschieden werden, ob sich die Lizenzgebühren für eine proprietäre Lösung lohnen. So ist es möglich klein und günstig anzufangen, erste Erfahrungen mit den Systemen zu sammeln und erst dann mehr zu investieren, wenn es nötig ist und auch gewinnbringend erscheint. 

Zudem muss den Kosten auch immer der jeweilige Gegenwert gegenübergestellt werden. Gerade bei Anwendungen, die tagtäglich ständig wiederkehrende Arbeitsabläufe bestimmen, können kleine Qualitätsunterschiede schon immense Auswirkungen haben – auf Fehlerquoten, auf Bearbeitungsdauer, auf die Motivation der Mitarbeitenden, die damit Zeit gewinnen, sich auf den Kern ihrer Aufgabe zu konzentrieren. Das Versprechen, alle Probleme auf einmal zu lösen, führt oft zu Software, die einem Schweizer Taschenmesser gleicht. Sie kann zwar theoretisch alles, praktisch ist ein gut sortierter Werkzeugkasten aber die bessere Lösung – insbesondere, wenn die einzelnen Werkzeuge für ihren jeweiligen Einsatzzweck optimiert sind. Durch die Spezialisierung bei der Entwicklung einzelner Komponenten, können diese eine deutlich höhere Qualität in Bezug auf ihre jeweilige Funktionalität erreichen – egal ob sie von großen Softwareanbietern oder von einer sehr aktiven Open Source Community entwickelt wurden.

Grenzen der Modularisierung von Systemen zur Datenverarbeitung 

Sollte man nun alles immer weiter in seine funktionalen Einzelteile zerlegen? Natürlich hat auch dieses Prinzip Grenzen. Integrierte Lösungen sind vor allem da sinnvoll, wo sie auf zusammenhängende Arbeitsprozesse hin optimiert sind. Es kann z.B. sinnvoll sein, wenn die Dokumentation von Beratungsprozessen und das Vereinbaren von Beratungsterminen ohne das Wechseln zwischen Anwendungen in der gleichen Benutzeroberfläche ablaufen. Doch auch hier können hinter einer gemeinsamen Oberfläche wieder getrennte Systeme verknüpft sein. So werden die Informationen zur Falldokumentation in einer speziellen Datenbank gespeichert, während die Kalenderdaten vor allem mit den Daten der Standardkalenderanwendung synchronisiert werden. Letztlich sind auch dort, wo wir als Nutzer_innen eine All-in-One-Lösung wahrnehmen im Hintergrund oft mehrere Softwarekomponenten am Werk.

Eine Frau sitzt vor einem Computer. Im Hintergrund sind viele unterschiedliche Geräte zu erkennen, die miteinander verkabelt sind.

Fazit 

Das Rundum-Sorglos-Paket beim Datenmanagement erscheint auf den ersten Blick verlockend. Die Praxis führt jedoch oft zu der Erkenntnis, dass ein flexiblerer, modularer Ansatz, der auf Interoperabilität setzt, besser geeignet ist, um den vielfältigen und sich ändernden Anforderungen in der Wohlfahrtspflege gerecht zu werden. Erst recht, wenn man in den Blick nimmt, dass es nicht nur um die eigene Organisation geht, sondern Daten immer wieder zwischen Organisationen, (Wohlfahrts)Verbänden und ggf. staatlichen Stellen ausgetauscht werden müssen. Nicht zuletzt sind Daten, die getauscht und neu kombiniert werden können, wertvoller als Daten, die man nur für sich behält.


Hinweis: Die illustrierenden Bilder in diesem Artikel wurden mit Hilfe von Dall-E 3 erstellt. ChatGPT hat den Artikel nicht geschrieben, jedoch durchaus bei der Strukturierung der Gedanken des Autors und hier und da auch bei deren Ausformulierung unterstützt. Danke für die hilfreichen Kommentare von Marion Hellebrandt, Jonathan Sauer, Stephanie Agethen und Johannes Landstorfer.

Post a Comment

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert