Paradigmatische Homogenisierung
Im Grunde handelt es sich bei der qualitativen Perspektive auf den ersten Blick um ein „irgendwie anderes“ Paradigma. Wenn sich Menschen, die Psychologie studiert haben, über Forschungsmethoden unterhalten, tun sie das häufiger aus dem Blickwinkel quantitativer Forschungsmethoden und weniger häufig aus einer qualitativen Perspektive. Der Grund dafür ist in der relativ weitgehenden paradigmatischen Homogenisierung der Forschungsmethoden in der Psychologie zu suchen. Quantitative Methoden sind unter einem Großteil von Psychologinnen und Psychologen nicht nur plausibel und zustimmungsfähig, sie sind auch plausibler und zustimmungsfähiger als qualitative Methoden, was sich spätestens darin äußert, dass die Vermittlung quantitativer Methoden in psychologischen Studiengängen selbstverständlicher ist als die Vermittlung qualitativer Methoden.
Dabei handelt es sich gar nicht so sehr um ein „anderes Paradigma“, was ja irgendwie die Perspektive von „dem einen“ auf „ein anderes“ Paradigma impliziert, sondern um eine Sichtweise auf die Welt, von der aus man die quantitative Perspektive ebenfalls als eine „andere Sichtweise“ bezeichnen könnte. Beide Perspektiven stehen für sich, lassen sich nicht vereinen (verbinden schon, aber nicht vereinen). Es ist nicht hilfreich, etwa zu versuchen, die Gütekriterien der „einen“ auf die „andere“ Welt zu übertragen und umgekehrt. Hilfreicher ist, beide Perspektiven als das zu betrachten, was sie sind: Verschiedene Perspektiven, sich der Welt zu nähern – und sich daraus ergebende Settings und Werkzeuge. Und die Welt ist kompliziert genug, als dass die Anwendung beider Perspektiven Sinn macht — anstelle lange Diskussionen über die Frage zu führen, warum die eine Perspektive irgendwie „besser“ oder „wissenschaftlicher“ sei als die andere. (Wissenschaftlerinnen und Wissenschaftler geben gern vor, um Erkenntnisse zu ringen, vermeiden tatsächlichen Dialog aber oft mit langen Diskussionen über die vermeintlich „richtige“ Methodologie oder vermeintlich „adäquate“ Methoden.)
Was ist eigentlich Wissenschaft?
Im Grunde muss man sich zunächst fragen, was Wissenschaft eigentlich ist. Man stelle sich die Welt unserer evolutionären Anpassung vor. Es galt dort vielleicht das Recht des stärkeren Individuums. Irgendwann wurde das Recht des Stärkeren durch Prinzipien wie „Auge um Auge, Zahn um Zahn“ ersetzt. Das mag uns aus heutiger Sicht zwar brutal vorkommen, war aber ein Fortschritt gegenüber jenem „Recht“, mit den Angehörigen der „schuldigen“ oder „besiegten“ Seite einfach machen zu können, was man will. Wenn man ehrlich ist, sieht man, dass jenes Recht des Stärkeren heute auf der Welt keineswegs ausgestorben ist. Man muss sich deshalb fragen, was zur Zivilisierung führt — und das ist letztlich die Zustimmung zu bestimmten Verfahrensregeln. Heute haben wir Polizei, Gerichte, Mediation und weitere Möglichkeiten der „Ersatzkommunikation“, um Streitigkeiten zu klären. Man muss sich die Vorstufen und den langen Weg zu unseren heutigen Institutionen vorstellen. Etwas wird dann zu einer Institution, wenn alle Angehörigen des Geltungsbereiches der Institution einerseits der Institution zustimmen und andererseits von dieser (in etwa) gleich behandelt werden. Gerichte sind Institutionen, Behörden sind Institutionen, die Polizei ist hoffentlich auch eine Institution — in Deutschland sehr wohl, in manchen anderen Ländern weiß man das nicht so genau; die Korruption ist wahrscheinlich der größte Feind der Institution.
Wenn man verstanden hat, was eine Institution ist, versteht man auch in etwa, was die Wissenschaft sein könnte. Beginnen wir noch einmal in der Welt unserer evolutionären Anpassung: Irgendwann haben Menschen angefangen, sich zu kleiden. Wir werden nie herausfinden, wie diese Anfänge wirklich ausgesehen haben, aber der Umstand, dass Menschen kaum oder kein Fell haben, zu Teilen aber in Breiten leben, in denen es zusätzlicher Mittel bedarf, um die Körpertemperatur konstant zu halten, lässt den Ursprung der Kleidung plausibel erscheinen. Nehmen wir an, dass jemand über die Verwendung von Fellen nachgedacht und verschiedenes ausprobiert hat. Solcherlei Versuch und Irrtum wird zu den ersten Stufen der Haltbarmachung von Fellen geführt haben. Später wurden daraus die Gerber, die ihr Wissen an immer neue Generationen weitergaben und ihr Wissen dabei ausbauten, ohne immer gleich an den Anfang von Versuch und Irrtum zurückzugehen. Durch die Geschichte hindurch ergibt sich so eine gewisse Entwicklung, eine gewisse „Höherstilisierung“ von Kulturtechniken. Aus den Gerbern wurden später vielleicht unsere heutigen Chemiker… und so weiter.
Der Ursprung dieser Entwicklung ist letztlich die Sprache. Bei der Sprache handelt es sich um den Gebrauch von signifikanten Symbolen zur Handlungskoordination. Der Unterschied zur reinen Verhaltenskoordination anderer Säugetiere besteht in der Art des Symbolgebrauchs. Während etwa für Warnrufe unter Tieren in der Regel der Reiz (bspw. ein Adler) anwesend sein muss, können Menschen vermittels der Verwendung signifikanter Symbole die Anwesenheit des Reizes und den Ablauf des darauf folgenden Verhaltens simulieren. Denken ist demgemäß Probehandeln. Menschen müssen bestimmte Erfahrungen nicht immer wieder machen, um daraus zu lernen. Gleichzeitig überschreiten einige der menschlichen Lerneffekte bei Weitem die Ebene direkter Konditionierungen. Menschen können sich etwas einfallen lassen und etwas ausprobieren. Sie können Erfolg feststellen und die Prozeduren zur Herstellung des Erfolgs verallgemeinern und weitergeben. Und vor allem, und das ist das Wesentliche: Menschen können durch Sprache nicht nur einzeln, sondern auch im Verband handeln, also im Verband Vorgehensweisen auswerten, simulieren, variieren und die erfolgversprechenden Varianten weitergeben.
Was ist Hermeneutik?
So ähnlich kann man sich das bei der Wissenschaft vorstellen: Man könnte bspw. die Hermeneutik, also die Kunst des Auslegens bzw. der Interpretation von Texten, als ein Produkt der langen Auseinandersetzung mit Texten — zunächst vor allem: heiligen Texten — verstehen. Man vertieft sich in den Text, denkt darüber nach, vertieft sich wieder, denkt noch einmal darüber nach, findet in der realen Welt Beispiele oder Belege, verallgemeinert die Erkenntnisse und kehrt nun ein letztes Mal zum Text zurück, um Belege (in diesem Fall vielleicht: Zitate) für das entstandene Bild der Dinge zu finden. Verstehen Sie? So ungefähr können wir uns die extrem langsame und fehleranfällige und vor allem autoritätsverzerrte Erkenntnisentwicklung in den früheren Buchwissenschaften — allen voran in der Theologie — vorstellen.
Erkundung vs. Überprüfung
Aber so geht es eben heute auch noch: Wenn ich einen Text verstehen will, muss ich den Text lesen, muss ich mich dem Text nähern, mich wieder entfernen, den Text durch die Verknüpfung mit anderen Dingen/Texten/Anwendungsbeispielen/Vergleichsobjekten usw. verstehen lernen, verschiedene Fragen an den Text richten, mich wieder annähern, die Welt oder einen Ausschnitt der Welt durch den Text hindurch betrachten…
Ich muss meine Erkenntnisse sammeln und systematisieren und durch Anwendung am Text überprüfen. Durch das Lesen eines Textes ist mir etwas klargeworden. Ich vollziehe nach, wie mir das klar geworden ist — in der Regel durch etwas, das in dem Text vorkommt und in meinem Leben oder in meinen Gedanken ein Echo hervorruft. Dann prüfe ich durch erneute Lektüre, ob das, was mir klar geworden zu sein scheint, einem zweiten Blick standhält. Dann suche ich nach weiteren Beispielen, ich versuche zu verallgemeinern. Mir fallen Querverbindungen zu anderen Gedanken oder Phänomenen oder Beispielen auf. Vielleicht bin ich wirklich auf etwas gekommen, das sich allgemeingültig oder begrenzt allgemeingültig formulieren lässt.
Die scheinbare Überlegenheit der (quantitativen) Methode
Die Frage ist, was den Unterschied zwischen „quasi-plausibler Lebensweisheit“ und tatsächlicher Erkenntnis ausmacht. Viele können sich mit Texten oder anderen Datenquellen beschäftigen, ohne jemals die Ebene dessen zu verlassen, was wir schon wissen. Vielleicht ist es eine Kombination aus Glücksfall und Kunstfertigkeit, wirklich etwas Neues zu finden.
In jedem Fall bleiben qualitative Vorgehensweisen einer gewissen Unwägbarkeit, wenn nicht Beliebigkeit, unterworfen. Vielleicht ist das der Umstand, der qualitative Methoden so anfällig für Kritik macht: Wie überlegen wirkt vor diesem Hintergrund die Entdeckung der experimentellen Methode!
Die Überlegenheit der Methode sei an einem Beispiel illustriert: Zu Beginn der Management-Lehre war man auf gelingende Beispiele angewiesen. Im Unternehmen X haben genau diese Prinzipien zum Erfolg geführt. Im Unternehmen Y müsse man daher nur diese Prinzipien anwenden, um… Was aber im Unternehmen X vielleicht tatsächlich zum Erfolgt geführt hat, kann, muss aber nicht, auch für Unternehmen Y gelten. Vielleicht war die Ausgangslage vergleichbar, vielleicht handelte es sich sogar um Unternehmen aus der gleichen Branche, dennoch hat die Übertragung der Rezepte aus Unternehmen X in dem anderen Unternehmen nicht zum Erfolg geführt — oder doch, aber die Erklärung des Erfolgs oder Nichterfolgs war nicht nur von den herausgearbeiteten Prinzipien abhängig, sondern von einer viel komplexeren Zusammenwirkung unterschiedlichster Faktoren.
Best practice vs. Empirie
Das ist der Unterschied zwischen Best-Practice-Analysen und tatsächlichen empirischen Ergebnissen: Das plausibelste Beispiel ist vielleicht die Arbeit von Frederic Winslow Taylor, der die Arbeit an Best-Practice-Beispielen durch eine auf viele Fälle anwendbare Methode der systematischen — irgendwie quasi-experimentellen — Beobachtung ersetzt hat: Man nehme einen durchschnittlichen Arbeiter, variiere die Arbeitsbedingungen (bspw. Licht, Arbeitszeit), die Arbeitsmittel (bspw. die Größe der Schaufel) oder die Konditionen (bspw. Lohn, freie Tage) und finde heraus, unter welcher Bedingungskonstellation die Leistung dauerhaft am höchsten ist. Die (beliebige, schwer verallgemeinerbare) Methode der Suche nach den „richtigen“ Prinzipien (best practice), wurde durch methodische Ermittlung allgemeingültiger Prinzipien (ausgedrückt in Zahlen) ersetzt.
An die Stelle der (begrenzten) exemplarischen Verallgemeinerbarkeit trat die tatsächliche Verallgemeinerbarkeit — bis klar wurde, dass der Katalog der berücksichtigten Faktoren nicht vollständig war (und man begann, Faktoren wie die individuelle Motivation, die Qualität der Beziehung zur vorgesetzten Person usw. zu berücksichtigen; alles Dinge, die man dann mit Hilfe quantitativer Forschung gut abbilden und weiterentwickeln konnte).
Wie überlegen wirkt anhand dieses Beispiels also die quantitative Methode gegenüber der irgendwie „humpelnden“ fallbezogenen oder qualitativen Vorgehensweise? Die Antwort auf diese Frage lautet: Taylor hätte seine Methode wahrscheinlich nie entdeckt — er hätte womöglich nicht die entsprechenden Ideen gehabt — wenn es vorher nicht eine Fülle an bis dahin verfügbarem Wissen gegeben hätte. Man ist also, so könnte man vermuten, nur in eine nächste Ebene des Wissens vorgedrungen, weil man die bis dato gegebenen Ebenen mit den bis dato vorhandenen Methoden hinreichend erfasst hatte.
Die Quintessenz des qualitativen Paradigmas
Halten wir fest: Die der qualitativen Vorgehensweise zugrunde liegenden Methoden sind zwar älter und irgendwie unwägbarer und wirken im Vergleich zur quantitativen Methode unterlegen, gleichzeitig wird aber deutlich, dass quantitative Methoden erst dann greifen können, wenn man schon genug weiß, um Fragen zu stellen, die mit Hilfe größerer Zahlen beantwortbar sind.
Die Quintessenz des qualitativen Paradigmas lässt sich vielleicht wie folgt zusammenfassen: Um etwas Neues zu erfahren, ist die Analyse eines einzelnen Falls oder die Befragung einer kleinen Anzahl von kompetenten (erfahrenen) Angehörigen eines bestimmten Bereiches hilfreicher, als die Analyse größerer Zahlen.
Die Analyse größerer Zahlen kann gerade im Falle neuer oder ungewöhnlicher Phänomene den Blick trüben. Wenn man das Phänomen bereits kennt, kann man es natürlich durch die Analyse größerer Zahlen genauer beschreiben. Aber wenn sich das Phänomen aus verschiedenen Gründen der großen Zahl entzieht (durch relative Neuheit oder bspw. auch durch den Umstand, dass es kaum möglich ist, darüber zu sprechen, weil es vielleicht noch keine Begriffe dafür gibt oder das Phänomen einem Tabu unterliegt), dann erscheint es umso plausibler, das Phänomen erst einmal zu erkunden und zu versuchen, das Typische herauszuarbeiten.
Das kann man vielleicht als Ziel qualitativer Forschung formulieren: Die Erkundung von etwas, über das wir noch zu wenig wissen oder über das wir noch nicht angemessen sprechen können, weil das Wesentliche noch nicht ganz klar ist. Wir versuchen mit qualitativer Forschung also, das Typische herauszuarbeiten. Nicht umsonst ist in qualitativen Methoden oft von Typenbildung die Rede.
Prototypische Beispiele (außerhalb der Psychologie) sind vielleicht (a) Darwins Entdeckung evolutionärer Prozesse (Selektion und Mutation) — durch die Anschauung der Welt entstanden Vermutungen, die durch neuerliche Anschauung der Welt irritiert oder belegt wurden, bis die allgemeine Erkenntnis klarer wurde (die sich Darwin zunächst nicht zu veröffentlichen traute) oder (b) Arendts Beschreibung der Unmöglichkeit der Assimilation deutscher Juden im 19. Jahrhundert anhand der Analyse einer einzelnen Biographie.
Man bedarf zur Herausarbeitung des Typischen nicht der großen Zahl, im Gegenteil: anhand der großen Zahl kann das prototypische Phänomen irgendwie „grau“ oder „verwässert“ oder „wenig greifbar“ wirken. Man muss die Welt erst gut genug begriffen haben, um sie in Zahlen gut beschreiben zu können. Immer dann, wenn man meint, dass die Welt noch nicht gut genug begriffen sei, ist es ggf. hilfreich, sich jener älteren und weniger treffsicheren, dafür aber eben für diesen Anwendungsfall passenderen Methode der erkundenden Annäherung zu bedienen.
Der qualitative Forschungsprozess
„Die wahre Forschungsmethode gleicht einer Flugbahn. Sie hebt ab von der Grundlage einzelner Beobachtungen, schwebt durch die dünne Luft phantasievoller Verallgemeinerung und versenkt sich dann wieder in neue Beobachtungen, die durch rationale Interpretation geschärft sind.“
Alfred North Whitehead (1987, S. 34)
Wenn diese Betrachtung stimmt, dann geht es in denjenigen Fällen, in denen wir noch nicht genug über die betreffende empirische Welt wissen, um vermittels quantitativer Methoden adäquate Beschreibungen zu liefern, um die Erkundung (Exploration) der betreffenden Welt mithilfe geeigneter
- Beobachtungen (etwa: teilnehmende Beobachtung) oder
- Befragungen (z.B. einer Reihe für die betreffende Welt kompetenter Personen) oder
- Analysen (bspw. von Dokumenten aus dem realen Verwendungszusammenhang in dem betreffenden Kontext).
Diese Erkundung ähnelt eher einer hermeneutischen Vorgehensweise (Wechsel aus Annäherung und Distanzierung, später Einbeziehung neuer Beispiele zur Schärfung der Erkenntnisse) als einer quantitativ-empirischen Prozedur, die eher prüfend vorgeht, weshalb in letzterem Fall die Fragen bereits formulierbar sein müssen, die man anhand der Auszählung von Merkmalen bzw. anhand der großen Zahl beantworten möchte. Der ersten Phase der Erkundung folgt die ebenso kreative wie vorsichtige Verallgemeinerung, die durch erneute Annäherung an das bisher vorhandene Material geschärft wird. Später werden weitere Beobachtungen, Befragungen oder Dokumentenanalysen angestellt, um das bisher Erkannte weiter zu schärfen, zu sättigen und zu überprüfen.
Der Übergang von der Exploration zur Schärfung und dann weiter zur Sättigung und zur Überprüfung ist dabei fließend. Wenn ein Konzept gesättigt ist, ist es in gewisser Weise bereits überprüft, weshalb bspw. im Rahmen des Verfahrens der Grounded Theory gilt: Wenn etwas gesättigt ist (= in weiteren Erhebungsschritten nichts Neues/Korrigierendes mehr hinzukommt), kann es auch als wahr gelten. Andere qualitative Methoden wählen nicht die Sättigung als Wahrheitskriterium, sondern die Zustimmung: Stimmt die befragte/beobachtete/analysierte Person den Erkenntnissen der Analyse zu, können diese als (exemplarisch/subjektiv) wahr gelten. Im Sinne der oben von Whitehead beschriebenen Flugbahn ist festzuhalten, dass sowohl die Erkundung als auch die Überprüfung mit den gleichen Methoden erfolgen — in den Begriffen Blumers handelt es sich hier um die Exploration und die Inspektion. Ich mache praktisch quasi immer das gleiche — ich erkunde — durch den Aufwuchs der Erkenntnisse entsteht aber eben jene (exemplarische) Verallgemeinerung, die ich (oft zunächst noch unbewusst) anhand weiterer Beobachtungen, Befragungen oder Analysen bereits schärfe, später sättige oder sogar belege. Innerhalb des qualitativen Paradigmas reichen die Belege anhand der bereits gewählten Methode aus, was man ja wahlweise durch Sättigung oder Zustimmung nachweist.
Viele Forscherinnen oder Forscher entscheiden sich hier jedoch für eine Kombination der Methoden — qualitative Methoden für die Exploration, quantitative für die Überprüfung. Man erhebt quasi neue Erkenntnisse durch Exploration und überprüft sie mithilfe quantitativer Methoden. Diese Kombination ist in der Welt psychologischer Forschung oft zustimmungsfähiger als eine rein qualitative Vorgehensweise.
PS: Wie wesentliche qualitative Beiträge zur psychologischen Forschung aussehen können, zeigt aus Sicht des Verfassers dieses Beitrags Peggy Szymenderski mit ihrer Arbeit über den emotionalen Umgang mit Belastungen bei der Polizei.