Mayr-Keiler Kerstin - Computergestützte qualitative Textanalyse - TheoArt-komparativ

Computergestützte qualitative Textanalyse nach dem GABEK®-Verfahren

am Beispiel von Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben

von Kerstin Mayr-Keiler

 

Abstract

Ziel des Artikels ist es, anhand eines Beispiels die computergestützte Methode GABEK® (Ganzheitliche Bewältigung von Komplexität) als eine Möglichkeit der qualitativen Textanalyse (QDA) vorzustellen. Dabei wird gezeigt, wie ausgehend von sprachlichen Daten mit Hilfe von GABEK® Themen intertextuell vernetzt und zusammengefasst werden können. Die Kernaussagen sprachlicher Daten lassen sich so professionell, systematisch und regelgeleitet bearbeiten, ohne dass dabei der Kontext einzelner Textpassagen verloren geht. Die Beibehaltung des Kontexts bei gleichzeitiger Reduktion der Komplexität der Daten ist die Stärke des GABEK®-Verfahrens. Dies wird anhand einer groben Gegenüberstellung mit anderen Analyseverfahren gezeigt. Es folgt ein kurzer Abriss zur Gestalttheorie, als theoretische Grundlage des Verfahrens sowie eine Schritt-für-Schritt Anleitung zum GABEK®-Analyseprozess.

1. Einführung

Die Themen und Kernaussagen eines Textes zu identifizieren, scheint eine leichte Übung für all jene zu sein, die in der Lage sind, sinnerfassend zu lesen. Die Frage danach, wovon ein Text handelt, ist meist ohne größere Anstrengungen zu beantworten. Wie aber verhält es sich mit Texten, die aufgrund ihrer inhaltlichen, sprachlichen (z.B. Abstraktionsgrad) oder formalen Komplexität (z.B. Strukturierung, Umfang) in ihren Kernaussagen – auch für geschulte Leserinnen und Leser – schwer zu erfassen und deshalb auch schwer auf das Wesentliche zu reduzieren sind? Texte mit hohem Abstraktionsgrad finden sich häufig in der Literatur oder der Philosophie. Aber auch andere Textformen, wie z.B. verschriftlichte Interviews, können aufgrund der ihnen zugrundeliegenden umfangreichen, unstrukturierten, verbalen Daten zu einer Herausforderung werden. Für Wissenschaftlerinnen und Wissenschaftler bilden diese Arten komplexer Texte oft die Grundlage ihrer Forschung. Es gibt zahlreiche wissenschaftliche Verfahren, die Komplexität von Daten reduzieren, um die wesentlichen Aussagen in ihrem Kern zu erfassen und zusammenzufassen. Es sind vor allem qualitative Textanalyseverfahren, die dafür herangezogen werden. Eines dieser Analyseverfahren wird im Rahmen dieses Artikels näher vorgestellt. Es handelt sich um das GABEK®-Verfahren (Ganzheitliche Bewältigung von Komplexität), das am Institut für Philosophie an der Leopold-Franzens-Universität von Univ.-Prof. Dr. Josef Zelger 1991 entwickelt wurde. Ursprünglich war GABEK® dafür vorgesehen, Datenmaterial zu analysieren, das aus offenen, narrativen oder semi-strukturierten Interviews stammt. GABEK® wurde und wird aber auch erfolgreich auf andere komplexe Textformen angewandt. Das wird am Beispiel von Ludwig Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben in diesem Artikel demonstriert.

2. Erläuterung zur Textauswahl: Warum Wittgenstein?

Philosophische und literarische Texte, denen von Expertinnen und Experten ein besonders hohes Maß an Qualität zugesprochen wird, erscheinen oft schwer verständlich. Einerseits mag das am Gebrauch von Begriffen liegen, die in der Alltagssprache unüblich oder gänzlich anders definiert sind. Andererseits kann der Eindruck, ein Text sei unverständlich, auch mit dem Schreibstil einer Autorin/eines Autors zusammenhängen, wie dies bei den Schriften des Philosophen Ludwig Wittgenstein der Fall ist. Wittgensteins Schreibstil ist gleichsam ein Abbild seines philosophischen Denkstils. Er schreibt und denkt vernetzt. Seine Texte zeigen eine sequenzartige, fragmentarische Form und Struktur, ohne jedoch dabei beliebig zu sein.
„Fragmente sind Wittgensteins Aufzeichnungen […] darum, weil sie die eine zentrale Idee aus vielen Perspektiven anvisieren, ohne sich zuzutrauen, die Kohärenz der Teile zum intendierten System auch in der systematischen Darbietungsform eines von vorn beginnenden und im Ende organisch sich beschließenden, kurz: eines wohlgegliederten wissenschaftlichen Werks zu dokumentieren“ (Frank, 1989, S. 41 f.).
Um Wittgensteins philosophische Überlegungen und seine Aussagen holistisch und in ihren Zusammenhängen erfassen zu können, müssen die Kernaussagen aus dem Konvolut seiner Schriften erst erschlossen werden. Wittgenstein schreibt dazu selbst: „Was ich auch immer schreibe, es sind Fragmente, aber der Verstehende wird daraus ein geschlossenes Weltbild entnehmen“ (zitiert nach Frank, 1992, S. 107). So bilden Wittgensteins Texte
ein optimales Versuchsfeld, um das GABEK®-Analyseverfahren zu exemplifizieren.
Zeit seines Lebens und Schaffens ging es Wittgenstein darum, davon zu schweigen, wovon man nicht sprechen könne. Wittgensteins Texte sind reich an Beispielen, Andeutungen und Verweisen in fragmentarischer Form – wovon auch sein „Tractatus logico-philosophicus“ (1921) zeugt –, in denen er auf das „zeigt“, wovon er spricht, ohne explizit davon zu sprechen. Dem Gestus des verbalen Zeigens auf das, wovon er nicht spricht, kommt deshalb eine größere Bedeutung zu, als dem expliziten Sprechen davon. Durch die Vielzahl an sehr konkreten Beispielen, die sich zwischen Wittgensteins philosophischen Sentenzen finden, kann für ungeübte Wittgenstein-Leserinnen und -Leser rasch der Eindruck entstehen, dass seine Texte keinem roten Faden folgen und Wittgenstein allgemeingültige Textnormen, wie logische Gedankenführung und das Bemühen um Textkohärenz, permanent bricht. Umso schwieriger gestaltet sich demnach das Verständnis seiner Texte, weil weder ein argumentativ stringentes noch ein narrativ-logisches Nachvollziehen seiner Überlegungen möglich erscheint. Ein Beispiel soll zeigen, was gemeint ist:
„Es gibt außerordentlich viele verschiedene Fälle von Kennerschaft. Und natürlich ist das, was ich weiß, nichts im Vergleich zu dem, was ich wissen könnte. Um zu sagen, was Kennerschaft ist, müßte ich z.B. eine solch ungeheure Warze wie das Kunstgewerbe, diese eigentümliche Krankheit, erklären. Ich müßte auch erklären, was unsere Photographen heutzutage tun, und warum es unmöglich ist, ein anständiges Photo eines Freundes zu erhalten, auch wenn du 1000 Pfund dafür bezahlst. 22. Man kann sich eine Vorstellung von einer sehr hochstehenden Kultur machen, wie z.B. der deutschen Musik im letzten und vorletzten Jahrhundert, und davon, was passiert, wenn sie zusammenbricht. Eine Vorstellung von dem, was in der Architektur passiert, wenn Imitationen auftauchen oder wenn sich Tausende von Leuten für geringste Details interessieren. Eine Vorstellung von dem, was passiert, wenn ein Eßtisch mehr oder weniger willkürlich ausgesucht wird, wenn keiner mehr weiß, wo er hergekommen ist. 23. Wir sprachen von Richtigkeit. Ein guter Schneider gebraucht keine anderen Worte als >zu lang<, >richtig<. Wenn wir über eine Symphonie von Beethoven sprechen, reden wir nicht von Richtigkeit. Hier sind ganz andere Dinge wichtig. Man würde nicht sagen, daß man die gewaltigen Dinge in der Kunst schätzt. In gewissen Architekturstilen ist eine Tür richtig, und wir schätzen sie darum. Aber im Fall einer gothischen Kathedrale spielen völlig andere Dinge eine Rolle für uns, und wir würden die Tür nicht >richtig< nennen. Das gesamte Spiel ist anders. Es ist so verschieden wie bei der Beurteilung eines Menschen zum einen zu sagen >Er benimmt sich gut< und zum anderen >Er hat einen großen Eindruck auf mich gemacht<“ (Wittgenstein, 1994,S. 17 f.).
Stellt man sich nach der Lektüre dieses kurzen Textauszugs die Frage, worum es denn in diesem Text geht, mag die spontane Antwort lauten: „Keine Ahnung!“ Es könnten auch Gegenfragen auftauchen, wie: „Was soll das?“ oder „Was will der Autor sagen?“ Einer möglichen Argumentation, dass der Textausschnitt nicht mehr in seinen ursprünglichen Gesamtkontext eingebettet ist und sich der Sinn deshalb nicht erschließt, kann im Falle Wittgensteins durchaus entgegnet werden: Das würde die Sache nicht besser machen, denn Wittgensteins Texte „ticken“ eben genau so. Eindrücklich zeigt sich das auch im „Tractatus“, in dem Wittgenstein seinen Sätzen Nummerierungen beigefügt hat. Man hätte nun allen Grund anzunehmen, es handle sich hier um den ersehnten „roten Faden“. Die Erläuterung allerdings, die Wittgenstein selbst zu diesen Nummerierungen im „Tractatus“ vorgenommen hat, ist ernüchternd, denn er schreibt in einer Fußnote: „Die Dezimalzahlen als Nummern der einzelnen Sätze deuten das logische Gewicht der Sätze an, den Nachdruck, der auf ihnen in meiner Darstellung liegt. Die Sätze n.I, n.2, n.3, etc., sind Bemerkungen zum Satz No. n; die Sätze n.mI, n.m2, etc. Bemerkungen zum Satze No. n.m; und so weiter“ (S. 11).
Die Erklärung, die er seiner Leserschaft an die Hand gibt, ist keine, die die Lektüre des Textes tatsächlich erleichtert, sondern folgt einer Logik, die mit Alltagslogik und Textlogik im herkömmlichen Sinn nur wenig – wenn überhaupt etwas – gemein hat. Eine Reihe von Philosophinnen und Philosophen, Editionswissenschaftlerinnen und Editionswissenschaftlern haben sich mit der Problematik der inhaltlichen Erschließung von Wittgensteins Werk befasst (u.a. Frank, 1989; Goppelsröder, 2007; Pichler, 2004). Forschungen jüngeren Datums und Projekte wie das „HyperWittgenstein“-Projekt des Wittgenstein-Archivs an der Universität Bergen, unter der Leitung von Alois Pichler, zeigen, dass Wittgenstein – seiner Zeit voraus – sich heute wohl für die Publikationsform des Hypertextes entscheiden würde. Tatsächlich ist der Nachlass Wittgensteins, der ca. 30.000 Manuskriptseiten umfasst, aufgrund seines Umfangs, vor allem aber aufgrund seiner intertextuellen Struktur kaum geeignet, in Form von Buchpublikationen rezipiert zu werden. Die Frage danach und die Diskussion darüber, was ein Wittgenstein-Text ist, wo dessen Besonderheiten liegen und ob Begriffe wie „Werk“ oder „Buch“
bei Wittgenstein überhaupt zur Anwendung kommen können oder sollten, ist im Kontext dieses Artikels allerdings nicht weiter zu eruieren.
Während Leserinnen und Leser, die zum Vergnügen oder auch zu eigenen Fortbildungszwecken lesen, die Option haben, derartige Texte beiseite zu legen oder ohne tiefer gehende Reflexion und Analyse getrost mit der Lektüre fortzufahren, verhält es sich für Leserinnen und Leser, die professionell mit inhaltlich und sprachlich komplexen oder formal herausfordernden Texten arbeiten und diese sowohl im Detail erfassen, als auch in einen größeren Kontext bringen müssen, anders. Sie benötigen Methoden und Werkzeuge, die ihnen die Möglichkeit bieten, die zentralen Themen und Kernaussagen von Texten systematisch und regelgeleitet zu erschließen, Schlüsselstellen zu identifizieren und vor allem den inhärenten Sinn und die Argumentationsstrukturen von Texten zu erfassen, die in ihrer Form bruchstückhaft, elliptisch oder inkohärent vorliegen, wie das bei Wittgenstein der Fall ist.

3. Verfahren qualitativer Textanalyse – Ein Überblick

Um Texten, wie sie in Abschnitt 2 beschrieben wurden, wissenschaftlich „Herr zu werden“, bietet die qualitative Forschung eine breite Palette an Verfahren, methodischen Ansätzen und auch computergestützten Instrumenten, die je nach Wissenschaftsdisziplin und Erkenntnisinteresse unterschiedlich ausgerichtet sind. Die nachfolgende Tabelle gibt einen groben Überblick zu den im deutschsprachigen Raum gängigsten textbasierten
Analyseverfahren, methodischen Ansätzen und computergestützten Instrumenten in den Geistes- und Sozialwissenschaften (siehe Tabelle 1).

Wissenschaftsdisziplin Verfahren Methodenansätze computergestützte
Instrumente
Geistes- und
Kulturwissenschaft
Hermeneutische Verfahren • Objektive Hermeneutik
• Sozialwissenschaftlich-hermeneutische Paraphrase
• Psychoanalytische Textinterpretation
• Biografieanalyse
• Grounded Theory Coding
 
Literatur- und
Sprachwissenschaft
Linguistische Verfahren • Diskursanalytische Ansätze
• Konversationsanalyse
MAX QDA
Atlas.ti
NVivo
QCAmap
f4analyse
GABEK®/WinRelan®
Kommunikationswissenschaft Inhaltsanalytische
Verfahren
• Qualitative Inhaltanalyse
• GABEK (Ganzheitliche Bewältigung von Komplexität ©)
 

Tabelle 1: Eine Auswahl von Analyseverfahren, -methoden und computergestützten Instumenten in der qualitativen Geistes- und Sozialwissenschaftsforschung

 

All diesen Verfahren gemein ist, dass mit ihrer Hilfe sprachliche Daten analysiert werden können, bedingt – wie bereits erwähnt – durch das Erkenntnisinteresse, das qualitativ ausgerichteter Forschung zugrunde liegt und das Flick, Kardoff & Steinke wie folgt definieren:

„Qualitative Forschung hat den Anspruch, Lebenswelten ‚von innen heraus‘ aus Sicht der handelnden Menschen zu beschreiben. Damit will sie zu einem besseren Verständnis sozialer Wirklichkeit(en) beitragen und auf Abläufe, Deutungsmuster und Strukturmerkmale aufmerksam machen“ (Flick et al., 2007, S. 14).

Daten, die in der qualitativen Forschung generiert (z.B. durch Interviews, Beobachtungen etc.) oder gesammelt werden, sind im Sinne des von Flick et al. erhobenen Anspruchs und den damit einhergehenden Datenerhebungsverfahren überwiegend textbasiert. Die in Tabelle 1 angeführten computergestützten Verfahren basieren auf dem der qualitativen Inhaltsanalyse. Der methodische Ansatz von GABEK® unterscheidet sich allerdings in einigen Aspekten wesentlich von anderen Verfahren, wie das in Tabelle 2 an der Gegenüberstellung von GABEK®/WinRelan® und QCAmap (Qualitative Content Analysis Map), einer Software zur qualitativen Inhaltsanalyse nach Mayring, gezeigt wird (siehe Tabelle 2).

  GABEK®/WinRelan® QCAmap
Theoretisches Fundament • Gestalttheorie • Symbolischer Interaktionismus
• Pragmatismus
Regelsystem • Millers „Magical number seven plus or minus two“ • evtl. Kodierleitfaden (deduktive Kategorienbildung auf Basis der Sekundärliteratur)
• Regeln werden von den Forscherinnen/Forschern aus der Sekundärliteratur deduziert
Analyseverfahren • Qualitativ-quantitatives Mischverfahren
• Bildung von Sinneinheiten
• deduktive/induktive Kategorienanwendung
• Textkodierung: zirkulär Drei Ebenen (Basiskodierung, Bewertungskodierung, Kausalkodierung)
• Clusteranalyse
• Gestaltenbildung
• Relevanzanalyse
• teilweise quantitative Ansätze (z.B. Häufigkeiten)
• deduktive/induktive Kategorienanwendung
• Textkodierung: zirkulär
• Basiskodierung
• Paraphrasierung – Reduktion
• Summative Reliabilitätsprüfung
Analyseverfahren • Gestaltenbaum
• Kausalnetzwerkgrafiken
• Kategoriensystem: Haupt- und Unterkategorien
Darstellung der Analyseergebnisse • Grafische Darstellungsmöglichkeiten
in der Software WinRelan®
realisiert
• überwiegend textbasiert

Tabelle 2: Gegenüberstellung zentraler Unterschiede GABEK® und QCAmap

 

Im folgenden Abschnitt 4 wird klargelegt, wo die Vorteile der Arbeit mit GABEK® für Wissenschaftlerinnen und Wissenschaftler liegen, die unstrukturiertes
verbales Datenmaterial oder umfangreiches, komplexes, schwer zu erschließendes Textmaterial professionell, systematisch und regelgeleitet bearbeiten wollen, um die Kernaussagen zu isolieren, ohne dabei den Kontext der einzelnen Textpassagen zu verlieren. Gerade die Beibehaltung des Kontexts bei gleichzeitiger Reduktion der Komplexität der Daten ist die Stärke des GABEK®-Verfahrens.

4. Das GABEK®-Verfahren

4.1 Theoretische Grundlage: Gestalttheorie

Die GABEK®-Methode (Ganzheitliche Bewältigung von Komplexität) beruht – anders als andere Textanalysemethoden – auf philosophischen Konzepten des Verstehens, Erklärens, Lernens und der Gestalttheorie (vgl. King und Wertheimer, 2007; Metz-Göckel, 2008; Smith und Ehrenfels, 1988). Der Begriff der „(linguistischen) Gestalt“ spielt bei GABEK® eine bedeutende Rolle und basiert auf der Definition des Gestalttheoretikers Carl Stumpf (1848-1936), einem der vier Begründer der Berliner Schule der Psychologie. Nach Stumpf zeichnet sich eine linguistische Gestalt dadurch aus, dass sie ein Ganzes von Verhältnissen (d.h. Beziehungen) zwischen Sinnesinhalten (Textpassagen) darstellt.
„Stumpf claims that when we perceive a triangular figure or a melody, for example, we always have a complex of sensations organized and structured by the relations between the various parts or partial contents, and these relations are themselves perceived. A gestalt, accordingly, is conceived as a complex of structural relations, and this presupposes, among other things, the perception of relations, the possibility of phenomenal content that is unnoticed, and the distinction between phenomena and mental functions” (Fisette, 2015).

Diese theoretische Basis wirkt sich mittelbar durch die Anwendung von GABEK® auf die Perspektive und die Haltung aus, mit der Forscherinnen und Forscher sich ihrem Datenmaterial nähern und wie sie im Zuge des Analyseprozesses damit umgehen. Hinter jeder Theorie steht in letzter Konsequenz ein bestimmtes Menschenbild. Gerade im Hinblick auf den wissenschaftlichen Umgang mit Texten, als Produkte des Menschen, ist dies wesentlich. Aus der Perspektive der Gestaltpsychologie ist der Mensch ein offenes, mit seiner Umwelt interagierendes System (Metz-Göckel, 2008, S. 17), das sein Denken, Fühlen und Verhalten nach bestimmten Mustern organisiert („Prägnanztendenz“) (Metzger, 2001, S. 232). Des Weiteren kann die Kernaussage der Gestalttheorie in der bekannten Formel „Das Ganze ist mehr als die Summe seiner Teile“ bzw. „Das Ganze ist etwas anderes als die Summe seiner Teile“ (Metzger, 2001, S. 5 f.) zusammengefasst werden. Nun ist als nächstes die Frage zu klären, wie die konkrete Anwendung von GABEK® als Textanalyseverfahren aussieht.

4.2 Computergestütztes Analyseverfahren mit GABEK®/WinRelan®

Dieser Abschnitt dient der grundlegenden Einführung in das GABEK®-Verfahren als eine Möglichkeit, textbasierte Daten zu analysieren. Da die Methode so komplex ist, dass sie einer vertiefenden praktischen Schulung bedarf, kann im Rahmen dieses Artikels lediglich auf die wesentlichen Schritte und die besonderen Vorteile von GABEK ® eingegangen werden. Am Beispiel von Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben werden die einzelnen Schritte des Verfahrens dargestellt und erläutert:

• Datenaufbereitung (Abschnitt 4.2.1)
• Analyseschritt 1: Basiskodierung (Abschnitt 4.2.2)
• Analyseschritte 2 und 3: Bewertungskodierung und Kausalkodierung (Abschnitt 4.2.3)
• Analyseschritt 4: Clusteranalyse und Gestaltenbildung (Abschnitt 4.2.4)
• Analyseschritt 5: Relevanzanalyse und Kausalnetzwerkgrafiken (Abschnitt 4.2.5)

In Abschnitt 4.3 folgt schließlich die Interpretation der Analyseergebnisse.

4.2.1 Datenaufbereitung: Bildung von Sinneinheiten

Bevor mit der Analyse des Datenmaterials und der Kodierung der Texte begonnen werden kann, muss das zur Verfügung stehende Datenmaterial für die Einspeisung in die GABEK®-Software WinRelan® aufbereitet werden. Idealerweise liegt der Text, der inhaltsanalytisch erfasst werden soll, als Textdatei im MS-Wordformat vor, da Win-Relan® einen direkten Import von Textdateien in diesem Format ermöglicht. Der Text wird nun in MS-Word für den Import vorbereitet, indem er in sogenannte „Sinneinheiten“ unterteilt wird. Diese Unterteilung geschieht nicht willkürlich, sondern unterliegt strengen Regeln. So kann ein Textabschnitt gemäß dem GABEK®-Verfahren nur dann als „Sinneinheit“ gelten, wenn er einen kohärenten Gedanken umfasst. Zudem ist die Länge einer Sinneinheit für die Basiskodierung später entscheidend und sollte je nach sprachlicher Komplexität des Datenmaterials zwischen drei und fünf Sätze umfassen.
Bei der Bildung von Sinneinheiten empfiehlt es sich, den Text eher „großzügig“ zu lesen, da ansonsten die Gefahr besteht, sich in Details zu verlieren. Dadurch würden die Sinneinheiten zu klein, was die darauffolgenden Analyseschritte mit GABEK®/WinRelan® beeinträchtigte. Als Leitgedanke für den gesamten Analyseprozess sollten stets das Ziel und der Zweck der Analyse im Kopf behalten werden: die Reduktion der Komplexität des Datenmaterials, um die Kernaussagen des jeweiligen Textes erschließen zu können und zu einer Gesamtinterpretation der Daten zu gelangen.
Wurde das gesamte Datenmaterial in Sinneinheiten unterteilt, erfolgt die Einspeisung in die Software. Dort werden die Sinneinheiten in Form von Registerkarten dargestellt, wie in Abbildung 1 zu sehen ist. Damit ist die Vorbereitung des Datenmaterials abgeschlossen und es kann mit dem ersten Analyseschritt begonnen werden – der Basiskodierung.

Abbildung1: Sinneinheiten in Form von Registerkarten nach Einspeisung in die Software GABEK®/WinRelan®

4.2.2 Analyseschritt 1: Basiskodierung

Der erste Analyseschritt in GABEK®/WinRelan® ähnelt im Wesentlichen der Vorgehensweise, wie sie von anderen qualitativ-inhaltsanalytischen Methoden her bekannt ist. Die Basiskodierung (das „Keywording“) des Datenmaterials kann prinzipiell deduktiv oder induktiv erfolgen. Welcher Zugang für die Kodierung gewählt wird, hängt einerseits maßgeblich vom Datenmaterial und andererseits vom Erkenntnisinteresse (Forschungsfrage) ab. Wenn es um Transparenz geht und die Sicherstellung, dass das Datenmaterial so wenig wie möglich von der Kodiererin oder dem Kodierer beeinflusst wird, dann empfiehlt sich stets eine deduktive Kodierweise, die ganz nah am Textmaterial operiert und keine Kategorisierungen im Vorhinein vornimmt. Wie bereits erwähnt, handelt es sich beim GABEK®-Verfahren um eine regelgeleitete Inhaltsanalyse. Es werden nur Wörter kodiert, d.h. als „Keyword“ eingestuft, die innerhalb eines Satzes bzw. einer Sinneinheit semantisches Gewicht haben, die also relevant für das Verständnis und daher repräsentativ für den Inhalt der gesamten Sinneinheit sind. Als Faustregel gilt, dass auf Basis der codierten Wörter (Keywords) der inhaltliche/semantische Sinn der Sinneinheit rekonstruierbar sein muss. Die Gesamtheit der Keywords einer Einheit muss also den Inhalt der Einheit wiedergeben, d.h. im Wesentlichen stichwortartig zusammenfassen.
Demzufolge ist ein Begriff immer dann als Keyword zu betrachten, wenn er nicht weggelassen werden kann, ohne dass sich dabei das zentrale Thema des Textabschnittes ändern würde. Das ist der interpretative Anteil der Kodierung, den die Kodiererin/der Kodierer einbringt, deshalb verlangt diese Art der Kodierung sowohl nach Textverständnis (sinnerfassendem Lesen) seitens der Kodiererin/des Kodierers als auch nach syntaktischer sowie semantischer Analysefähigkeit. Obwohl die Keywords von der jeweiligen Kodiererin/dem jeweiligen Kodierer festgelegt werden, bleibt die Kodierung insofern objektiv, als etwaige „Unschärfen“ (d.h. Variationen) beim Kodieren nivelliert werden, da sich durch die Anwendung des GABEK®-Verfahrens die zentralen Themen aus dem gesamten Textkorpus nach und nach herauskristallisieren. Dabei gehen weder Details noch der Kontext, in den ein jeweiliger Begriff eingebettet ist, verloren. Letzteres ist dadurch gesichert, dass – anders als bei nicht computergestützten qualitativen Analyseverfahren – die ursprünglichen Begriffskontexte zurückverfolgt und annavigiert werden können (mehr dazu in Abschnitt 4.3).
Bei der Beschlagwortung sind prinzipiell alle lexikalischen Begriffe als Keywords zu markieren, die per se sinntragend sind (d.h. vorrangig Nomen und Verben; Adjektive können mit Einschränkung ebenfalls kodiert werden – dazu später mehr). Zusätzlich muss die Kodiererin/der Kodierer die Entscheidung treffen, ob sie/er ein Keyword in der Einzahl oder der Mehrzahl kodiert. Verben sind stets in ihrer Infinitivform zu kodieren. Diese beiden Aspekte sind essentiell, denn sie bilden die Basis für spätere Analyseschritte (z.B. die Clusteranalyse und die Gestaltenbildung).
In Bezug auf die in Abbildung 1 dargestellte Sinneinheit bedeutet das konkret, dass die Begriffe „Sprache“, „vergleichen“, „Werkzeugkasten“, „Unterschied“, „Familienähnlichkeit“, „Werkzeuge_verschiedene“ kodiert werden. Die Kodierung „Werkzeuge_verschiedene“ stellt eine Besonderheit dar und wird meist dann verwendet, wenn eine genauere Ausdifferenzierung von Begriffen notwendig ist. Würde das Wort „verschiedene“ allein kodiert, würde das dem Grundsatz widersprechen, dass nur sinntragende Wörter zu kodieren sind. Der Begriff „verschiedene“ erhält seinen Sinn aber erst in Bezug auf ein anderes Wort und ist entweder gemeinsam mit dem entsprechenden Bezugswort zu kodieren (in diesem Fall „Werkzeuge“) oder ganz wegzulassen.
Ein letzter wesentlicher Aspekt, der im Zuge des ersten Analyseschritts zu berücksichtigen ist, ist die Bestimmung der Keyword-Anzahl, die für eine Sinneinheit festgelegt wird. Diese Vorgehensweise operiert nach der Regel des amerikanischen Psychologen George A. Miller (1956) „Magical number seven plus or minus two“. Millers Regel besagt, dass ein Mensch stets nur sieben bis maximal neun Begriffe im Kurzzeitgedächtnis behalten kann. Für die Länge einer Sinneinheit, die zwischen drei und fünf Sätzen liegt, wird angenommen, dass eben fünf bis neun Keywords bestimmt werden können.
Erfahrungsgemäß muss der erste Analyseschritt mehrfach durchlaufen werden, um die Kodierung stringent zu halten. Eine fundierte Textkenntnis sowie ein gewisses Maß an Kontextwissens (in diesem Fall zur Philosophie Wittgensteins) unterstützen und beschleunigen den Prozess. Falls mehrere Kodiererinnen und Kodierer an der Datenanalyse beteiligt sind, empfiehlt sich jedenfalls – gerade zu Beginn der Analyse – die regelmäßige Abhaltung von Besprechungen zur Entwicklung eines gemeinsamen Codebooks, wie dies in der qualitativen Forschung ohnehin Usus ist.

4.2.3 Analyseschritte 2 & 3: Bewertungskodierung und Kausalkodierung

Nach der Basiskodierung erfolgt in einem zweiten Schritt die Kodierung der Keywords nach ihren Bewertungen (Bewertungskodierung) und in einem dritten Schritt die Kodierung der Keywords in ihren Wirkungszusammenhängen (Kausalkodierung).

In der Bewertungskodierung werden alle Keywords markiert, die im Kontext der jeweiligen Sinneinheit positiv oder negativ konnotiert sind. Wie Abbildung 2 zeigt, setzt die Kodiererin/der Kodierer ein Häkchen bei „+“, wenn das Keyword positiv bzw. bei „-“, wenn das Keyword negativ konnotiert ist. In der Mitte befindet sich ein Symbol „o“, das die Möglichkeit bietet auch Begriffe zu kodieren, die hinsichtlich ihrer Konnotation im Kontext ambivalent oder indifferent sind. Abbildung 2 zeigt, dass dem Begriff „Unterschied“ das Adjektiv „wichtig“ beigefügt ist und „Unterschied“ in diesem konkreten Kontext daher eine positive Bewertung erfährt. Der Begriff „Bewertung“ mag hier irreführend sein. Prinzipiell hängt die Definition des Begriffs „Bewertung/Bewertungskodierung“ von der Forschungsfrage ab, weshalb „Bewertung“ im Rahmen einer Datenanalyse auch anders definiert werden könnte, z.B. als „Bedeutung“. Wichtig ist dabei, dass diese Neudefinierung im Rahmen der Dateninterpretation transparent gemacht wird (siehe Abbildung 2). Auf Basis der Bewertungskodierung können Bewertungsprofile erstellt werden, die Aufschluss darüber geben, welche Keywords – und in weiterer Folge welche Themen – besonders wichtig sind. Bewertungskodierungen sind aussagekräftig, wenn es sich bei dem zu analysierenden Datenmaterial um Texte handelt, in denen persönliche Einstellungen, Haltungen, Wünsche oder Meinungen eine Rolle spielen. Der Text von Wittgenstein, der hier als Beispiel dient, ist ein eher schwieriger Fall, wenn es um Bewertungskodierung geht. Das hat zum einen mit der Textform (vgl. Abschnitt 2) zu tun, hängt zum anderen aber auch damit zusammen, dass es hier primär nicht darum geht, eigene Meinungen kundzutun.
Auch wenn GABEK® erfolgreich auf spezielle Textsorten angewandt werden kann, so verlangt es profundes Wissen und Erfahrung in der Anwendung des Verfahrens, um methodisch fundiert arbeiten zu können. Das Abweichen von Regeln muss stets begründet erfolgen und es bedarf daher zuerst immer einer Expertise in der Anwendung derselben.

Abbildung 2: Bewertungskodierung von Keywords am Beispiel des Begriffs „Unterschied“ im Kontext der Sinneinheit

Ist die Bewertungskodierung abgeschlossen, erfolgt in einem dritten Analyseschritt die sogenannte „Kausalkodierung“. Diese Kodierung markiert die Keywords mit Hilfe einer Matrix in ihren Wirkungs-zusammenhängen. Wenngleich diese Kodierung in GABEK® „Kausalanalyse“ genannt wird, handelt es sich nicht immer zwingend um Ursache-Wirkungs-Beziehungen. Gerade bei literarischen oder philosophischen Texten – wie im Falle von Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben – wird nach dem Prinzip „A wirkt auf B“ o.ä. codiert. So lassen sich die Zusammenhänge zwischen den einzelnen Begriffen bzw. den Themen(feldern) systematisch erschließen. Wiederum gilt: Ein syntaktisches sowie semantisches Textverstehen ist unerlässliche Voraussetzung für das Kodieren.
Wie im Fall der Bewertungskodierung wird das gesamte Material (alle Registerkarten mit den jeweiligen Sinneinheiten) von Neuem durchgearbeitet und kodiert. Dieses Mal steht der Kodiererin/dem Kodierer dafür eine Matrix zur Verfügung, in die er/sie durch das Setzen eines „+“ oder „-“ markiert, welche der Keywords in einem Zusammenhang stehen. Die Art des Zusammenhangs kann aufgrund des Datenmaterials auch hier wieder von der Kodiererin/dem Kodierer definiert werden, muss aber dann für das gesamte Datenmaterial exakt nach dieser Definition erfolgen und dokumentiert werden. Als Basis werden oftmals Definitionen wie „x wirkt auf y“ oder „wenn x dann y“ verwendet. Durch das Setzen eines „+“ oder „-“ sowie den zusätzlichen Einsatz von Farben kann die Art und Weise des Zusammenhangs genauer kodiert werden. Abbildung 3 zeigt dies anhand eines Beispiels.
Wie in Abbildung 3 dargestellt, werden die Zusammenhänge zwischen Keywords an den jeweiligen „Kreuzungspunkten“ in der Matrix markiert.

Abbildung 3: Kausalkodierung mit Hilfe einer Matrix

In diesem Fall würde die Beschreibung der Kausalkodierung lauten: (Das Lernen von) „Regeln“ „wirkt positiv („+“) auf“ oder „steht in einem positiven Zusammenhang mit“ den Keywords „Einstellung“, „interpretieren“, „Urteil_ästhetisch“ und „Urteilsvermögen“.
Manchmal kann es auch bei der Durchführung der Kausalkodierung zu Schwierigkeiten kommen. Beispielsweise kann ein Begriff, der eindeutig in einem Zusammenhang mit anderen Keywords steht, im Zuge der Basiskodierung übersehen worden sein. Besonders für unerfahrene Kodiererinnen und Kodierer kann aber auch das Problem darin bestehen zu entscheiden, welche Keywords mit welchen anderen in Zusammenhang stehen. Am Beispiel der oben dargestellten Sinneinheit und der dazugehörigen Keywords (Abb. 3) lässt sich zeigen, dass es unter Umständen schwer ist zu entscheiden, ob nun „Regeln“ auf „Einstellung“ oder auf „entwickeln“ wirkt. Um dieses oder ähnliche Probleme zu lösen, ist es wichtig, immer wieder zum Datenmaterial zurück zu kehren und sich die Definition für das Kodieren von Zusammenhängen ins Gedächtnis zu rufen.
Im Text heißt es: „Angenommen, ich werde Schneider und lerne zunächst alle Regeln, dann könnte ich, grob gesagt, zwei Arten von Einstellungen entwickeln“ (Wittgenstein, 1994, S. 15). Nun erfolgt die Re-formulierung auf Basis der Definition „wirkt auf“, die dann lauten könnte: „Das Lernen von Regeln“ „wirkt auf“ „entwickeln“. Belässt man es dabei, wird sofort klar, dass dieser Formulierung etwas fehlt und sich die Frage stellt: „(Das) Entwickeln wovon?“ So wird deutlich, dass das Lernen von Regeln ein (Lern)ziel benötigt, das in diesem Fall heißt: Die Entwicklung von Einstellungen. Dieses Beispiel zeigt, wie viel es an sprachlicher Exaktheit und Aufmerksamkeit – insbesondere bei der Kausalkodierung – bedarf und wie aufwändig dieser Prozess ist.

4.2.4 Analyseschritte 4 & 5: Clusteranalyse und Gestaltenbildung

GABEK®/WinRelan® ist eines der wenigen qualitativen Verfahren, die quantitative Analysen der Daten in den Analyseprozess einbinden und denen somit ein Mixed-Methods-Ansatz inhärent ist. Die Clusteranalyse ist eine statistische Methode zur Strukturierung von Daten. Grundlegende Statistikkenntnisse der Kodiererin/des Kodierers sind von Vorteil, aber nicht zwingend notwendig, weil die Analyse von der Software übernommen wird. Wichtig ist, dass die Kodiererin/der Kodierer die Ergebnisse der Berechnung so einschätzen kann, dass sie/er daraus ableiten kann, welche Konsequenzen diese für die nächsten Analyseschritte haben.
Welchen Zweck die Clusteranalyse hat und welche Bedeutung ihr im Kontext des gesamten Analyseprozesses zukommt, wird im Folgenden in möglichst einfachen Worten dargestellt. Ziel und Zweck der Clusteranalyse ist die Zusammenfassung von Sinneinheiten in Gruppen, die in sich möglichst homogen und untereinander möglichst unähnlich sind. Diese Gruppenbildung erfolgt sowohl auf Grundlage der Basiskodierung als auch auf Basis der Kausalcodierung. Die Clusteranalyse berechnet dabei nicht nur, wie häufig ein Keyword in verschiedenen Sinneinheiten kodiert wurde, sondern auch wie oft einzelne Keywords im Zusammenhang mit anderen Keywords in der Kausalkodierung markiert wurden. In Gruppen (Clustern) zusammengefasst werden demnach all jene Sinneinheiten, die über möglichst viele gleiche Keywords verfügen und die gleichzeitig einen möglichst hohen Grad an Zusammenhängen zwischen diesen Keywords aufweisen.
Durch die Clusteranalyse wird der Grundstein gelegt, Begriffs- und damit Themenzusammenhänge in einem Text systematisch zu erschließen. Sie liefert die Bausteine für den nächsten Analyseschritt, die Gestaltenbildung. Dadurch ermöglicht sie der Kodiererin/dem Kodierer die regelgeleitete Identifizierung von Kernaussagen eines Textes einerseits und andererseits die Erschließung semantischer Netze durch Einbeziehung der Kausalkodierung.
Die rechnerisch ermittelten Cluster (Gruppen oder auch Satzgruppen genannt) werden in einem nächsten Schritt zu sogenannten „Gestalten“ (Zelger, 1999, S. 42 ff.) zusammengefasst. Dies erfolgt wiederum nach Millers „Magical number seven plus or minus two“-Regel. Um von einer Gestalt sprechen zu können, müssen die Sinneinheiten, die im Zuge der Clusteranalyse in einer Gruppe zusammengefasst wurden, folgende Bedingungen erfüllen:

  1. Formale Vernetzung: Eine Gestalt setzt sich aus fünf bis maximal neun Sinneinheiten zusammen. Diese werden inhaltlich so zusammengefasst, dass alle Keywords, die mehr als einmal gemeinsam in den Sinneinheiten einer Gruppe (eines Clusters) auftauchen, berücksichtigt werden. Eine Gestalt ist dann als qualitativ gut zu betrachten, wenn unter den zusammengefassten Sinneinheiten eine möglichst dichte Vernetzung besteht.
  2. Formale Vielfalt: Die Gruppen von Sinneinheiten, die Gestalten ergeben sollen, müssen sich auch voneinander unterscheiden. Jede Sinneinheit sollte einen Aspekt einbringen, der in keiner der anderen Sinneinheiten der jeweiligen Gruppe vorhanden ist.
  3. Formale Distanz: Eine Gruppe von Sinneinheiten darf nicht zu viele Sinneinheiten beinhalten, sodass alle Beziehungen zwischen den Sinneinheiten als eine Bedeutungseinheit verstanden werden können.

Durch die Zusammenfassung der Gruppen von Sinneinheiten zu Gestalten und eine neuerliche Clusteranalyse über diese Gestalten werden die Gestalten zu sogenannten Hypergestalten zusammengefasst. Der Prozess der Gestaltenbildung wird auf der nächst höheren Ebene wiederholt. Somit wird die Textkomplexität sukzessive reduziert. Am Ende der systematischen Analyseschritte erhält die Kodiererin/der Kodierer einen sogenannten Gestaltenbaum, der einen hierarchisch strukturierten Überblick über die Themen auf unterschiedlichen Komplexitätsebenen des Ausgangstextes abbildet. Abbildung 4 zeigt den Gestaltenbaum zu Wittgensteins Text.

Abbildung 4: Gestaltenbaum zu Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben bestehend aus Hypergestalten und Gestalten.

Der Gestaltenbaum erlaubt es, rasch einen Überblick über die Themenfelder des Textes zu bekommen. Zudem finden sich (hier nicht abgebildet) als Grundlage der oben abgebildeten zwölf Gestalten im Computerprogramm WinRelan® Links zu den Originaltexten. So sind zu jeder Gestalt die Ursprungstexte auf den Registerkarten jederzeit einsehbar, und die Rolle der einzelnen Begriffe, die in den Gestalten repräsentiert sind, ist nachvollziehbar. Zelger erklärt die Funktion des Gestaltenbaums in seinem Aufsatz zur Analyse der ersten 57 Seiten aus Wittgensteins Philosophischen Bemerkungen wie folgt:
„Der Gestaltenbaum ist deduktiv strukturiert, so daß jeder Text im Gestaltenbaum [...] aus Texten der weiter rechts liegenden Spalte erklärt werden kann. Damit kann jeder Text im Gestaltenbaum bis zu den authentischen Rohdaten zurückgeführt und durch sie begründet werden. Zur Erklärung eines Textes geht man zu den Texten über, auf die die entsprechenden Pfeile hinweisen. Im Gestaltenbaum können des weiteren die meisten Einzeltexte in einen größeren Kontext eingeordnet werden. Ein ‚Kontext‘ zu einem beliebigen Text besteht aus den Texten, die durch eine Zusammenfassung in der weiter links liegenden Spalte mit dem gewählten Text verbunden sind. Der Kontext bildet eine sinnvolle größere Texteinheit innerhalb des Gestaltenbaums“ (2004, S. 19 f.).
Am Ende des Gestaltenbildungsprozesses hält nun die Kodiererin/der Kodierer mit dem Gestaltenbaum einen klaren Überblick über die thematische Textstruktur in Händen. Was jetzt noch fehlt, ist die Darstellung der qualitativen Zusammenhänge der Themen im Text. Um diese semantische Vernetzungsdarstellung, die Kausalnetzwerkgrafiken oder Wechselwirkungsnetze zu erhalten, muss die Kodiererin/der Kodierer eine letzte Analyse durchführen – die Relevanzanalyse.

4.2.5 Von der Relevanzanalyse zu den Kausalnetzwerkgrafiken

Als Ausgangsbasis für die Durchführung der Relevanzanalyse dienen drei Komponenten: die Basiskodierung, die Kausalkodierung und die Gestaltenbildungsanalyse. Diese drei Komponenten zusammen ergeben in GABEK®/WinRelan® nun eine sogenannte „Relevanzliste“. Aus ihr lassen sich die Kausalnetzwerkgrafiken ableiten, die – neben dem Gestaltenbaum – konkreten Aufschluss über die Art der semantischen Zusammenhänge der Themenfelder eines Textes geben. Um die Themen eines Textes nach ihrer Relevanz gewichten zu können, gibt es zwei Kriterien, die zu beachten sind:

  1. Thema A ist relevanter als Thema B, wenn es eine höhere Ebene im Gestaltenbaum erreicht. Ist ein Thema demnach auf der Ebene der Hypergestalt angesiedelt, kann es als „relevanter“ eingestuft werden, als ein Thema, das sich nur auf der Ebene der Gestalt widerfindet. Der Grund hierfür ist, dass die Repräsentation eines Themas auf einer hierarchisch höheren Ebene bedeutet, dass ein Thema sowohl quantitativ als auch qualitativ stärker im Text verankert ist, als ein Thema, das auf einer hierarchisch niedrigeren Stufe im Gestaltenbaum platziert ist.
  2. Thema A ist relevanter als Thema B, wenn A mehr Wechselwirkungsbeziehungen (Kausalkodierungen) aufweist als B; d.h. Thema A „wirkt [öfter] auf“, oder „ist [häufiger] das Ziel bzw. der Ausgangspunkt von Wirkungen“ als Thema B.

Ausgehend von diesen beiden Kriterien wird vom Programm eine sogenannte Relevanzliste errechnet, die auf einen Blick erkennen lässt, welche Themen von besonderem Interesse für die Kodiererin/den Kodierer im Hinblick auf die Beantwortung der Forschungsfrage sind. Abbildung 5 soll das verdeutlichen.

Abbildung 5: Ausschnitt der Relevanzliste zu Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben

In Abbildung 5 finden sich sechs Spalten, wobei die erste Spalte (links außen) die Gestaltebene,  die ein Begriff (zweite Spalte) erreicht hat, angibt. „G“ steht für Gestalt, „H“ steht für Hypergestalt, und „S“ steht für Satzebene. Letzteres bedeutet, dass dieser Begriff/dieses Thema nach Anwendung der Regeln zur Gestaltenbildung kein Bestandteil einer Gruppe (eines Clusters) und damit auch keiner Gestalt geworden ist. Im Sinn der Reduktion von Komplexität heißt das, dass das Thema hierarchisch betrachtet eine eher untergeordnete Rolle spielt.
Die Spalten drei und vier geben Auskunft darüber, in welchem Beziehungsverhältnis ein Begriff zu anderen steht. Die fünfte Spalte zeigt die Summe der Beziehungen an, ohne jedoch nach der Art und Weise der Zusammenhänge zu differenzieren. Wie bereits in Abschnitt 4.2.3 dargestellt, wird im Zuge der Kausalkodierung in eine Matrix eingetragen, welche Begriffe auf andere Begriffe „wirken“.
Die Symbole „->o“ und „o->“ über Spalte drei und vier stellen dar, ob ein Begriff auf einen anderen einwirkt oder ob auf ihn selbst eingewirkt wird. Am Beispiel des ersten Begriffs in Abbildung 5 („Bild“) ist dementsprechend zu sehen, dass sieben andere Begriffe (Themen) auf „Bild“ wirken, während „Bild“ auf acht andere Begriffe (Themen) einwirkt.
Im Rahmen des GABEK®-Verfahrens ist festgelegt, dass Begriffe, zu denen mehr Pfeile hinführen als wegführen, als „Ziele“ zu definieren sind.

Demgemäß ist der Begriff „verstehen“ (vgl. Abbildung 5) als Ziel zu definieren, weil 14 Pfeile hinführen und nur ein Pfeil wegführt. Ein Beispiel aus dem Originaltext zeigt, was gemeint ist:

Die Registerkarte mit der Bezeichnung „Ae“ enthält die in Abbildung 6 dargestellte Sinneinheit mit acht Keywords. In der Kausalkodierungsmatrix ist zu sehen, dass das Keyword „verstehen“ in Zusammenhang mit dem Keyword „Geste“ kodiert wurde. In diesem Fall steht ein „+“ bei „Geste“ am Kreuzungspunkt zu „verstehen“ und bedeutet: „Geste wirkt positiv auf verstehen“. Liest man nun den Originaltext der Sinneinheit auf der Registerkarte „Ae“, stellt man eben diesen Zusammenhang fest, denn dort steht: „Wenn du zu einem fremden Stamm, dessen Sprache du nicht verstehst, gingest, und du wolltest wissen, welche Wörter >gut< >schön< etc. entsprechen, wonach würdest du suchen? Du würdest dich nach einem Lächeln, nach Gesten […] umsehen“ (Wittgenstein 1994, S. 11). Eine Geste kann demnach das Verstehen begünstigen.

Abbildung 6: Registerkarte „Ae“ mit der entsprechenden Sinneinheit, den Keywords, die in der Basiskodierung festgelegt wurden und der Kausalkodierungsmatrix

Nachdem nun gezeigt wurde, wie es zur Definition des Keywords „verstehen“ als „Ziel“ kommt, mögen die beiden noch ausständigen Definitionen leichter verständlich sein. Die Höhe der Zahl in Spalte vier gibt an, auf wie viele andere Keywords ein Keyword Einfluss nimmt („o->“) und bestimmt in GABEK® die Einstufung als „Maßnahme“ (oder „Wirkfaktor“). Ist die Differenz zwischen den Zahlen in Spalte drei und vier nicht signifikant, spricht man in GABEK® von sogenannten „intervenierenden Variablen“, das sind Keywords, die als eine Art „Katalysator“ oder ein Bindeglied zwischen Begriffen fungieren.
Wie in Abbildung 5 zu sehen ist, können die als „Ziele“, „Maßnahmen/Wirkfaktoren“ oder „intervenierende Variablen“ definierten Keywords auch farblich markiert werden, was die rasche Orientierung erleichtert. In unserem Beispiel stellen alle „grün“ markierten Begriffe „intervenierende Variablen“, alle „gelb“ markierten „Maßnahmen/Wirkfaktoren“ und alle „grau“ markierten Keywords „Ziele“ dar. Der Analyseschritt der Generierung von Relevanzlisten ist entscheidend für die Bildung von Wechselwirkungsnetzen oderkausalen Netzwerkgrafiken.
Diese Netzwerkgrafiken dienen dabei einer übersichtlichen Darstellung der Art und Weise von Beziehungen zwischen Begriffen/Themen. Auf Basis der Relevanzanalyse können nun für alle „Ziele“, „Maßnahmen“ und „intervenierenden Variablen“ solche Wechselwirkungsgrafiken/Kausalnetzwerkgrafiken erstellt werden. Diese wiederum dienen letztlich als Ausgangspunkt für Interpretationen oder zur Vernetzung mit anderen Begriffen/Themenfeldern in Texten.
Wie ein solches Wechselwirkungsgefüge aussieht, wird anhand des Keywords „richtig“, welches im Kontext von Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben als „Ziel“ definiert wurde, verdeutlicht (vgl. Abbildung 7).

Abbildung 7: Wechselwirkungsgrafik/Kausalnetzwerkgrafik zum Keyword „richtig“ mit Verweis auf die Originaltexte (Sinneinheiten auf den jeweiligen
Registerkarten)

Mit der Erstellung des Gestaltenbaumes (vgl. Abschnitt4.1.4) und der Wechselwirkungsgrafiken ist die Analyse und somit die Erschließung eines Textes im Wesentlichen abgeschlossen. Sowohl der Gestaltenbaum, als auch die Kausalnetzwerkgrafiken bilden die Basis für die Interpretation des Datenmaterials und damit für die Beantwortung der Forschungsfrage. Die Frage, die sich jetzt stellt, ist: Wie sind der „Gestaltenbaum“ und die Kausalnetzwerkgrafiken zu lesen, d.h. wie sind die mühevoll erarbeiteten Analyseergebnisse zu interpretieren?

4.3 Interpretation der Analyseergebnisse

In Abschnitt 4.2 wurden die einzelnen Analyseschritt in GABEK® anhand von Beispielen dargestellt, erläutert und diskutiert. Dabei lag der Fokus der Darstellung auf den in GABEK®/Win-Relan® zentralen Analysemöglichkeiten. GABEK® verfügt allerdings über eine ganze Reihe zusätzlicher Analysemöglichkeiten, deren Darstellung und Diskussion den Rahmen dieses Artikels jedoch gesprengt hätte. Zwei der wichtigsten dargestellten Analyseschritte, die Gestaltenbildung und die Erstellung der Kausalnetzwerkgrafiken, bilden das Herzstück des GABEK®-Verfahrens und sind als Grundlage für die Interpretation des Datenmaterials unerlässlich. Der Gestaltenbaum ist das Ergebnis einer kontinuierlichen Reduktion der Komplexität der Daten. Er stellt die einzelnen systematisch und regelgeleitet erschlossenen Themenfelder des Datenmaterials hierarchisch geordnet dar. Ergänzend
dazu bilden die Kausalnetzwerkgrafiken sowohl den Grad der Vernetzung ab als auch die Art und Weise der Zusammenhänge zwischen den einzelnen Themenfeldern, die im Datenmaterial vorhanden sind. Am Beispiel einer bereits bekannten Kausalnetzwerkgrafik (Abbildung 7) wird nun gezeigt, wie die Interpretation einer solchen Grafik aussehen kann.
In Abbildung 7 zeigt sich, wie der Begriff „richtig“ mit andere Begriffen in Verbindung steht und wie diese sich „wechselwirkend“ beeinflussen. Die Abbildung zeigt, dass „richtig“ als „Ziel“ (grau markiert) definiert wurde, d.h., dass andere Begriffe vorwiegend zu „richtig“ hinführen. Um nachprüfen zu können, wie die hier abgebildeten Begriffe im Originalkontext miteinander in Verbindung stehen, lassen sich die jeweiligen Sinneinheiten im Computerprogramm anzeigen und gewährleisten somit zu jeder Zeit einen höchstmöglichen Grad an Transparenz der einzelnen Analyseschritte. Jede Sinneinheit (auf den Registerkarten An, Ak, Gy etc.) lässt sich per Doppelklick in einem Fenster öffnen. So können die Originaltexte jederzeit nachgelesen werden – ein Vorteil, den all jene begrüßen werden, die Bedenken haben, dass durch die zunehmende Reduktion und Zusammenfassung des Originaltextes wichtige Informationen, Details oder Kontexte verloren gehen könnten. Die Interpretation einer Kausalnetzwerkgrafik ist durch die Forscherin/den Forscher stets am Originalmaterial rasch und übersichtlich überprüfbar. Exemplarisch soll nun gezeigt werden, wie die Interpretation der Grafik in Abbildung 7 aussehen kann.
Der Begriff „richtig“ ist in dieser Grafik (Abbildungen 7) als ein „Ziel“ definiert, also als etwas, das angestrebt wird. In Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben spielt die Fähigkeit, etwas als 2richtig“ bezeichnen zu können, demnach eine zentrale Rolle. Allerdings geht es dabei weniger um den expliziten Gebrauch des Wortes „richtig“ selbst, als vielmehr darum, das, was als „richtig“ anzusehen ist, mit Hilfe einer „Geste“ bzw. eines „Gesichtsausdrucks“ sichtbar machen zu können. In welchem Zusammenhang können wir nun derartige „Gesten“ und „Gesichtsausdrücke“ beobachten, die darauf hinweisen, ob etwas als „richtig“ angesehen wird? Wittgenstein nennt hierfür wiederholt den Bereich der „Kunst“, allen voran den der Musik. Das Hören von „Musik“ oder eines „Musikstückes“ lässt „Eindrücke“ und „Gefühle“ in uns entstehen. Diese Reaktion allein reicht allerdings noch nicht aus, um beurteilen zu können, ob die Musik „richtig“ ist. Wobei zu beachten ist, dass der Begriff „richtig“ im Kontext der Ästhetik als ein Indiz für das „Urteilsvermögen“ und die Kompetenz, „ästhetische Urteile“ abgeben zu können, gilt. Daher sind die „Regeln“ ein integraler Bestandteil eines Beurteilungsprozesses, der darüber entscheiden soll, ob beispielsweise ein „Musikstück“ im ästhetischen Sinne als „richtig“ gelten kann oder nicht. Die Kenntnis der „Regeln“, die für die „Musik“ gelten, stellt, in Kombination mit der emotionalen Reaktion („Gefühle“, „Eindruck“), die eine bestimmte Musik in uns hervorruft, die Grundlage dar für unsere „Geste“ bzw. unseren „Gesichtsausdruck“. Das Wiedererkennen einer Gesetzmäßigkeit („Regel“) in einem Musikstück – also die „Ähnlichkeit“ einer bestimmten Passage mit bestimmten „Regeln“ (z.B. der Harmonielehre) – löst eine Art „klick“ (man könnte es auch ein „Aha-Erlebnis“ nennen) in uns aus – ein Zeichen dafür, dass wir etwas wiedererkennen, das uns zeigt, dass etwas „richtig“ ist.
Dass es sich bei dieser Interpretation um keine willkürliche Darstellung eines Sachverhaltes handelt, kann – wie bereits betont – ganz einfach durch den Vergleich mit den Originaltextstellen belegt werden.
Nachdem es bei dem hier vorgestellten Analyseverfahren GABEK® v.a. um die Reduktion von Komplexität geht, ist es selbstverständlich, dass nicht alle Details in der zusammenfassenden Interpretation wiederzufinden sind; dafür kann durch das Aufrufen der zugrundeliegenden Sinneinheiten der Kontext mit all seinen Details nachgelesen werden. Bei der Interpretation auf Basis der Gestalten und/oder Kausalnetzwerkgrafiken geht es darum, die Essenz des Datenmaterials zu erfassen – einen Sachverhalt in seinen groben aber wesentlichsten Zügen darzustellen. Zudem ist unbedingt zu berücksichtigen, dass eine komplexe, tiefgehende Interpretation einer Kausalnetzwerk-grafik und ihrer Begriffe erst in Verbindung mit den Interpretationen weiterer Wechselwirkungsnetze geleistet werden kann.

5. Fazit und Ausblick

Die Anwendung des GABEK®-Verfahrens am Beispiel von Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben hat gezeigt, dass die Analyse mehr als eine reine Sammlung und Auflistung von Keywords hervorbringt, die uns zu Referenzstellen in einem Text führen (obgleich auch dies durch eine Keyword-Liste gesichert ist). Viel relevanter im Zusammenhang mit dieser Art der Analyse ist jedoch die Tatsache, dass sich wesentliche thematische Strukturen schrittweise (und regelgeleitet) herauskristallisieren und sich zudem die Beziehungen zwischen diesen Strukturen leicht und einfach abbilden lassen.
Wenngleich der Analyseprozess ein sehr aufwendiger ist, scheint der Output dennoch die Mühe wert. Wo sonst nur einige repräsentative Belegstellen durch Forscherinnen und Forscher selektiv zur Interpretation herangezogen werden, ist durch die Anwendung von GABEK® jederzeit gesichert, dass die Interpretation letztlich auf dem Gesamttext beruht. Zwar wird sukzessive reduziert, verloren geht allerdings nichts. Alles bleibt erhalten und kann bei Bedarf zu jeder Zeit wieder aufgerufen werden. Letztendlich geht es darum, Transparenz zu schaffen und die Arbeit der Wissenschaftlerinnen und Wissenschaftler zu optimieren und effizienter zu gestalten. GABEK ®/WinRelan® leistet dazu einen wesentlichen Beitrag.

 

Literatur

  • Fisette, D. (2015). Carl Stumpf. In Stanford Encyclopedia of Philosophy. Abgerufen am 5. März 2016 von http://plato.stanford.edu/entries/stumpf/#PriSou
  • Flick, U., Kardfoff, E. v. & Steinke, I. (Hrsg). (2005). Qualitative Forschung: Ein Handbuch (4. Aufl.). Reinbek bei Hamburg: Rowohlt-Taschenbuch-Verlag.
  • Frank, M. & Soldati, G. (1989). Wittgenstein: Literat und Philosoph. Pfullingen: Neske.
  • Frank, M. (1992). Stil und Bedeutung. Wittgenstein und die Frühromantik. In M. Frank (Hrsg.), Stil in der Philosophie. Stuttgart 1992.
  • Glaser, B. G. (1978). Theoretical sensitivity: Advances in the methodology of grounded theory. Mill Valley, Calif: Sociology Press.
  • Goppelsröder, F. (2007). Zwischen Sagen und Zeigen: Wittgensteins Weg von der literarischen zur dichtenden Philosophie. Bielefeld: Transcript.
  • Metz-Göckel, H. (2008). Handbuch zur Gestalttheorie. Wien: Krammer.
  • Metzger, W. (2001). Psychologie. Die Entwicklung ihrer Grundannahmen seit der Einführung des Experiments (6. Aufl.). Wien: Krammer.
  • Miller, George A. (1956). „The Magical Number Seven, Plus Minus Two: Some Limits on our Capacity for Processing Information“. Psychological Review, 63, S. 81-97.
  • Pichler, A. (2004). Wittgensteins Philosophische Untersuchungen. Vom Buch zum Album. Amsterdam und New York: Rodopi.
  • Smith, B. & Ehrenfels, C. (1988). Foundations of Gestalt theory. München: Philosophia Verlag.
  • Strauss, A. L. & Corbin, J. M. (1990). Basics of qualitative research: Grounded theory procedures and techniques. Newbury Park, Calif: Sage Publications.
  • Stumpf, C. (1925). Was ist, was will Gestalttheorie? Abgerufen am 5. März 2016 von http://gestalttheory.net/gta/Dokumente/gestalttheorie.html
  • Wittgenstein, L. & Barrett, C. (1994). Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben. Düsseldorf: Parerga.
  • Zelger, J. (2004). Argumentationsstrukturen in Wittgenstein-Nachlass MS 115. S. 1-57. Abgerufen am 5. März 2016 von http://www.wab.uib.no/wab_contrib-zj.page
  • Zelger, J. (1999). Wissensorganisation durch sprachliche Gestaltbildung im qualitativen Verfahren GABEK. In Maier, M. & Zelger, J. (Hrsg.), GABEK - Verarbeitung und Darstellung von Wissen. Studienverlag. Innsbruck.

Abbildungs- und Tabellenverzeichnis

  • Abb. 1: Sinneinheiten in Form von Registerkarten nach Einspeisung in die Software GABEK®/WinRelan®
  • Abb. 2: Bewertungskodierung von Keywords am Beispiel des Begriffs „Unterschied“ im Kontext der Sinneinheit
  • Abb. 3: Kausalkodierung mit Hilfe der Matri
  • Abb. 4: Gestaltenbaum zu Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben bestehend aus Hypergestalten und Gestalten
  • Abb. 5: Ausschnitt der Relevanzliste zu Wittgensteins Vorlesungen und Gespräche über Ästhetik, Psychoanalyse und religiösen Glauben
  • Abb. 6: Registerkarte „Ae“ mit der entsprechenden Sinneinheit, den Keywords, die in der Basiskodierung festgelegt wurden und der Kausalkodierungsmatrix
  • Abb. 7: Wechselwirkungsgrafik/Kausalnetzwerkgrafik zum Keyword „richtig“ mit Verweis auf die Originaltexte (Sinneinheiten auf den jeweiligen
    Registerkarten)
  • Tabelle 1: Eine Auswahl von Analyseverfahren, -methoden und computergestützten Instrumenten in der qualitativen Geistes- und Sozialwissenschaftsforschung
  • Tabelle 2: Gegenüberstellung zentraler Unterschiede GABEK® und QCAmap