Die Untersuchung stützt sich auf drei Quellen: (a) Die archivierten Diskussionsbeiträge der Liste, (b) die Teilnehmerlisten der Mailinglists sowie (c) eine Befragung, die per E-Mail Anfang März 1999 durchgeführt wurde. Die Daten dieser drei Quellen wurden je für sich analysiert und nicht, was auswertungstechnisch naheläge, mittels einer Datenbank operativ zugänglich zusammengefügt. Insbesondere hätte es nahegelegen, die Daten der Fragebögen mit den Daten des Textarchivs zu koppeln, um etwa Eigenschaften der sich besonders aktiv beteiligenden Teilnehmer zu ermitteln. Eine solche Kopplung wäre aber nicht statthaft gewesen, weil sie über den Namen hätte erfolgen müssen und dann die Zusage der Anonymisierung der Fragebogendaten nicht hätte eingehalten werden können. Verknüpfungen dieser drei Quellen finden allein unter theoretischen Gesichtspunkten statt. Nachfolgend werden zunächst die methodischen Aspekte der Untersuchung angesprochen. Zum Schluß dieses Abschnitts komme ich dann auf allgemeine Aspekte von computer- bzw. internetbasierten Datenerhebungen zu sprechen.
5.1 Die Auswertung des TextarchivsFür die Auswertung der Beiträge wurden die Log-Dateien des Mailinglistservers der GMD (listserv@listserv.gmd.de) herangezogen. Der Server legt diese Archivdateien allmonatlich an, wenn im Kopf der Datei des Mitgliederverzeichnisses der Eintrag Notebook= Yes,B,Monthly steht. Die Log-Dateien sind für die Mitglieder der jeweiligen Mailinglist frei zugänglich.(Endnote 1) Die Beiträge der ML-Soziologie aus der Vor-GMD-Zeit wurden dem per WWW zugänglichen Archiv der Mailinglist entnommen, das zeitgleich mit der Mailinglist eingerichtet wurde.(Endnote 2) Für die Luhmann-Mailinglist ist darüberhinaus ein schönes, per Web zugängliches Archiv eingerichtet worden. 5.1.1 Die Ermittlung des Umfangs der ArtikelDer Umfang eines Artikels wird abzüglich des Umfangs des Headers angegeben. Die Signature-Zeilen, in denen am Ende eines Artikels die Adressen des Autoren sowie manchmal ein launiger Spruch angegeben sind, wurden dagegen nicht abgezogen, weil es keinen faktisch durchgesetzten Standard, sondern nur die Empfehlung "-" zur Kennzeichnung von Signatures gibt. Zum Umfang eines Artikels zählen ferner Textpassagen, die als Zitate ("Quotes") aus vorigen Artikeln gekennzeichnet sind sowie die Anhänge von Texten, die den selben Text noch einmal im HTML-Format enthalten. Den Anteil der Quotes- und HTML-Passagen wurde anhand von Defacto-Standards bestimmt, um einen möglichst realistischen Wert für den Realinput eines durchschnittlichen Beitrags zu erhalten. Als Defacto-Standard für Quotes gilt ein > zu Beginn einer Zeile, als Defacto-Standard für HTML-Anhänge ein <HTML>. Während HTML-Anhänge am Tag "<html>" verläßlich erkennbar sind, dürfte die tatsächliche Anzahl der Quotes höher liegen, weil sich nicht alle Mail-Programme an den Defacto-Standard halten und einige Autoren die Artikel, auf die sie Bezug nehmen, auch ganz ohne Quote-Kennzeichnungen vollständig im nicht standardisiert gekennzeichneten Anhang wiederholen. Schätzungsweise wurden rund 20% der Quotes nicht erkannt. 5.1.2 Die Auswertung der BeiträgeDie Themen, die durch Bezugnahmen der Artikel aufeinander entstanden und die nachfolgend als Threads bezeichnet werden, wurden anhand gleichlautender Subject-Zeilen ausgezählt. Die Defacto-Standards, die Anschlüsse von Beiträgen an vorausgegangene Beiträge signalisieren, sind solche Bestandteile in der Subject- bzw. Betreff-Zeile wie "Re:" und "(fwd)" sowie einige Permutationen davon, die nach Durchsicht der Artikel auffielen (wie etwa "(FWD)" oder "Re2:" oder "Re^2"), wurden vor dem Vergleich der Subject-Zeilen gelöscht. Verstümmelte Subject-Zeilen - die zumeist dadurch entstehen, wenn Mailprogramme Subject-Zeilen nach einer Zeilenlänge von 60 Zeichen schlicht abschneiden - werden als solche nicht erkannt, d.h. die auf diese Weise ausgezeichneten Beiträge bilden gegebenenfalls eigene Threads. Von Threads ist für den Fall die Rede, in denen die Pause zwischen einem Artikel und einem Nachfolgeartikel, der das gleiche Subject trägt, 60 Tage nicht übersteigt. Dieser Wert wurde anhand der Überlegung gewählt, dass es Fälle geben könnte, in denen ein professionell Beteiligter sechs Wochen Urlaub hat und eine Woche jeweils Vor- und Nachlaufzeit beansprucht, bevor er einen bezugnehmenden Folgebeitrag verfaßt. Wird das gleiche Subject in größeren Abständen als zwei Monaten erneut aufgegriffen, machte es vermutlich mehr Sinn, allgemeiner von einem "Thema" oder einem "Super-Thread" zu sprechen.(Endnote 3) Die Dauer von Threads wurde in Tagen bemessen, weil dies hinreichend genau ist. Eine Angabe in Stunden erschien bei dem derzeitigen Beitragsaufkommen als unanschaulich und unangemessen hochgetrieben präzise, schon weil die Taktung des Eingangs und Verteilens der Beiträge der Teilnehmer unterschiedlich ist.(Endnote 4) Die recht hohe Standardabweichung bei der Länge und Dauer von Threads veranlaßte die Einführung einer Unterscheidung in zwei Thread-Faktoren, nämlich einen Faktor für überdurchschnittlich langkettige Threads und einen für überdurchschnittlich dauerhafte Threads. Um diese Faktoren zu ermitteln, wurde für jede Liste ein Thread-Mittelwert über den gesamten Untersuchungszeitraum ermittelt, und aus den Mittelwerten der drei Mailinglists wiederum ein gemeinsamer Mittelwert gebildet, das auf diese Weise gewonnene Ergebnis dann verdoppelt und gerundet. Damit ist festgelegt, dass Threads mit mindestens 10 Folgeartikeln als besonders lang, und Threads, die mindestens 14 Tage Tage andauern, als besonders dauerhaft zu bezeichnen sind. Eine tiefer gestaffelte Auswertung der Threads, wonach die Bezugnahme der Artikel untereinander innerhalb eines Threads noch im einzelnen berücksichtigt wird, war aufgrund der Datenlage nicht möglich. Ein technischer Mangel der Auszählung besteht darin, dass die Threads quartalsweise gruppiert und ausgezählt wurden, um möglichst wenige längerkettige, über einen Monatswechsel hinausreichende, Threads zu zerstören. Somit verbleiben pro Jahr immer noch vier Zeitpunkte, an denen unter Umständen Threads aufgrund des Auszählungsmodus auseinandergerissen wurden. Diese Vierteljahrestaktung des Threadauszählens wurde deshalb gewählt, um über den untersuchten Zeitraum der Konsolidierung der Listen hinweg eine Entwicklung im Hinblick auf Zu- oder Abnahme von Threads beobachten zu können. 5.1.3 Die Auswertung der ThemenDie Themen der Beiträge wurden anhand eines groben Schemas codifiziert und dann von einem Programm ausgezählt.(Endnote 5) Wurden in einem Beitrag unterschiedliche Themen entsprechend des vorgelegten Schemas angesprochen, wurden selbstverständlich diese Themen auch unterschiedlich codiert. Insofern ist die Zahl der Beiträge einer Mailinglist und die Zahl der darin angesprochenen Themen nicht identisch. 5.2 Die Auswertung der MitgliederlistenBei der Mitgliederliste einer Mailinglist handelt es sich um eine Datei im ASCII-Format, die sich auf dem Server der Mailinglist befindet. Hierbei enthält jede Zeile dieser Datei die E-Mailadresse sowie den Vor- und Nachnamen eines Mitgliedes. Diese Mitgliederliste kann von jedem Mitglied der Mailinglist bezogen werden.(Endnote 6) Die Bearbeitung der Adressliste, vornehmlich das Eintragen und Austragen von Teilnehmern, die diese Operationen mit ihrer Adresse aus welchen Gründen auch immer nicht mehr selbst durchführen können, bleibt allerdings dem Verwalter vorbehalten. Als Verwalter der monatlichen Mitgliederlisten der ML-Soziologie und ML-Luhmann habe ich das Mitgliederverzeichnis nicht kontinuierlich jeden Monat angefordert, sondern immer dann, wenn bei mir zu viele Fehlermeldungen aufgrund nicht erreichbarer Mitglieder eintrafen. Für die hier vorliegende Auswertung wurden die Mitgliederverzeichnisse deshalb auf den 1. eines jeden Monats anhand der von mir archivierten Meldungen über die monatlichen Zu- und Abgänge der Liste standardisiert. Während sich für die ML-Luhmann lückenlos für jeden Monat ein Mitgliederverzeichnis rekonstruieren ließ, war dies für die ML-Soziologie leider nicht möglich. Für die ML-Soziologie fehlen die Mitgliederlisten für 9706, 9707, 9708 sowie 9709, so dass für diesen Zeitraum keine Auszählungen durchgeführt werden konnten. Immerhin liessen sich aber dank einiger Teilnehmer, die diese Daten zufällig erhoben hatten und die ich in einem allgemeinen Aufruf über die Mailinglist um die Zusendung bat, die Teilnehmerzahlen ermitteln.(Endnote 7) Für die ML-IMD standen nur wenige, über den Zeitraum unregelmäßig verstreute Teilnehmerlisten zur Verfügung. Die monatlichen Mitgliederlisten wurden vor dem Auszählen nicht auf Mehrfacheinträge im Hinblick auf Namensgleichheit durchgesehen und bereinigt. Ich gehe davon aus, dass die Zahl der Mehrfacheinträge in den Listen hinreichend konstant verteilt ist. Um die absolute Zahl der Mitlieder möglichst realitätsnah abschätzen zu können, wurde stichprobenweise im Hinblick auf Mehrfacheinträge ausgezählt. Diese Auszählung ergab, dass rund 13% der Mitglieder einer Liste, soweit dies anhand der Vor- und Nachnamen ersichtlich ist, mit mehr als nur einer einzigen E-Mailadresse vertreten sind. Es ist problematisch, Mehrfacheinträge genauer zu ermitteln oder diese zu nur einem einzigen Eintrag zusammenzuziehen, weil zu beobachten ist, dass eine bislang unabschätzbare Anzahl an Mitgliedern mehrere unterschiedliche Rollen von verschiedenen Adressen aus einnehmen. Diese Beobachtung ist auch von begrifflich-theoretischem Interesse, weil man eigentlich nicht länger von Autorinnen und Autoren sprechen kann, und dahinter kurzschlüssig Menschen vermutet, sondern genauer von Adressen, von denen aus Beiträge an einen Mailinglist-Server verschickt werden. Eine solche Adresse kann auf einen Menschen gemapt sein, der jedoch zugleich von einer anderen Adresse aus eine ganz andere textliche Inszenierung seiner Person bevorzugen mag. Und nicht minder bedeutsam ist der Umstand, dass auch Autorenkollektive problemlos und unerkannt von einer Adresse ebenso wie Text-Maschinen, so wie sie beispielsweise als "Robots" in Chat-Rooms gang und gäbe sind, operieren können. Die Mitgliederliste wurde nicht länderspezifisch ausgewertet, weil eine ernstzunehmende Anzahl an Adressen länderspezifisch nicht auswertbar sind und dann überwiegend unter USA gebucht werden. Letzteres trifft auf Mitglieder zu, deren E-Mailadresse beispielsweise ein "cis.com", "compuserve.com", ".net", ".org" oder "aol.com" enthalten. Dies ist offensichtlich schlicht falsch, denkt man allein an die vielen CompuServe und insbesondere AOL-Nutzer allein in Deutschland. Dieser Fehler hätte verringert werden können durch einen auf Plausibilität hin angelegten Abgleich mit den Vor- und Nachnamen. Da ich zudem weiss, dass eine ganze Reihe an Deutschen im Ausland mit folglich nicht-deutschen Mailadressen an der Mailinglist teilnehmen, erschien mir das Aufwand-Nutzen-Verhältnis zur Untersuchung dieser Frage endgültig als fragwürdig. Eingedenk dessen werden diese Zahlen also nicht in den Auswertungsteil mit aufgenommen, sondern hier schlicht unbearbeitet, so wie sie der Listserver anlieferte, präsentiert. * Country Subscribers * ------- ----------- * Argentina 1 * Australia 2 * Austria 28 * Brazil 1 * Canada 1 * Denmark 1 * France 1 * Germany 407 * Great Britain 2 * Greece 1 * Ireland 1 * Italy 1 * Japan 1 * Luxembourg 3 * Netherlands 4 * Norway 2 * Romania 1 * Spain 1 * Sweden 3 * Switzerland 8 * USA 50 * ??? 1 * Total number of "concealed" subscribers: 5 * Total number of users subscribed to the list: 521 (non-"concealed" only) * Total number of countries represented: 22 (non-"concealed" only) * Total number of local node users on the list: 0 (non-"concealed" only) Verteilung der nach Ländern sortierten Mitglieder der ML-Soziologie * Country Subscribers * ------- ----------- * ??? (2]) 1 * Austria 35 * Belgium 6 * Brazil 5 * Colombia 1 * Denmark 13 * Finland 2 * France 1 * Germany 231 * Great Britain 9 * Greece 1 * Italy 6 * Japan 5 * Luxembourg 1 * Mexico 1 * Netherlands 5 * Norway 5 * Romania 1 * Spain 3 * Sweden 2 * Switzerland 16 * Taiwan 1 * USA 54 * Total number of "concealed" subscribers: 32 * Total number of users subscribed to the list: 405 (non-"concealed" only) * Total number of countries represented: 23 (non-"concealed" only) * Total number of local node users on the list: 0 (non-"concealed" only) Verteilung der nach Ländern sortierten Mitglieder der ML-Luhmann 5.2.1 Die Ermittlung der Gesamtanzahl sämtlicher ML-MitgliederTrotz der oben geäußerten Bedenken, eine materiale und kommunikative Identität der Mitglieder von Mailinglists für die Ermittlung der Gesamtzahl der Mitglieder und Autoren, die jemals in einer Mailinglist eingeschrieben waren bzw. mit einem Beitrag in Erscheinung traten, zu erzwingen, wurden die monatlich erstellten Mitgliederlisten zu einer einzigen Datei zusammengefügt und für diesen speziellen Fall einmal im Hinblick auf Mehrfacheinträge anhand der Vor- und Nachnamen bereinigt. Denn offensichtlich änderten sich im Laufe der Jahre die E-Mailadressen bei einer ganzen Reihe an Mitgliedern, ohne dass dafür begründete Absichten im Hinblick auf das Einnehmen verschiedener Rollen zu vermuten ist.(Endnote 8) Zur Bereinigung wurden die GNU-Textanalysetools sort, das Dateien zeilenweise sortiert, und uniq, das gleichlautende Zeilen von Dateien löscht, genutzt. In der abschliessenden Kontrolle wurden dann noch einmal ziemlich genau 10% an nicht trivial-technisch erkennbaren Doppeleinträgen herausgefischt. Leider war es nicht möglich, mit vertretbarem Aufwand kontinuierlich die monatlichen Zu- und Abgänge der Listen festzustellen, um einen Wert für die monatlichen Fluktuationen der Liste zu ermitteln. Hier einen realistischen Wert anzugeben, wäre allerdings ohnehin problematisch gewesen, weil viele Mitglieder sich nicht aus der Liste austragen, bevor sie ihren Account verlieren, ihn aufgeben oder wechseln. Solche Mitglieder habe ich in unregelmäßigen Abständen von Hand ausgetragen. Für eine Abschätzung der monatlichen Erreichbarkeit der Mitglieder wäre ferner in Rechnung zu stellen, dass technische Unzulänglichkeiten (wie etwa zeitweise ausgefallene Server) es oftmals nicht entscheidbar machen, ob eine E-Mail-Adresse aktuell nun gültig ist oder nicht. 5.2.2 Die Ermittlung der Anzahl der AutorenDie Liste mit den über den gesamten untersuchten Zeitraum am häufigsten in Erscheinung getretenen Teilnehmern, die aktiv schreibend an der Mailinglist teilnehmen (Autoren), wurden zunächst automatisiert erstellt, indem die From:-Zeilen aus den archivierten Beiträgen herausgesucht wurden. In der Nachbearbeitung wurden anschliessend, so weit aus den Permutationen von Namensbestandteilen ersichtlich, nur solche Autorennamen aggregiert, die unter einem einzigen Autorennamen mindestens 10 Mal in Erscheinung traten. Diese Aggregation war notwendig, weil oftmals bei einem Accountwechsel die Anordnung der Vor- und Nachnamen getauscht und mal ein akademischer Titel angegeben wurde und mal nicht.(Endnote 9) Unter Umständen entgingen auf diese Weise einige Autoren, die unter häufig wechselnden Namen jeweils nur wenige Beiträge publizierten und die deshalb vielleicht unangemessener Weise nur im unteren Mittelfeld positioniert sind - doch es lag nicht in der Absicht dieser Studie, eine in jeder Position gültige Hitliste von Autoren zu erstellen, sondern vielmehr zu ermitteln, welche Autoren den Diskurs am meisten beeinflussten. Und diese Zahlen sind eindeutig. 5.2.3 Die Ermittlung des GeschlechtsDas Geschlecht der Autorinnen und Autoren wurde wie das der Mitglieder anhand der Vornamen ermittelt. In einige Fällen war das Geschlecht nicht zu bestimmen, entweder weil kein Vornamen angegeben wurde, der Vorname unbekannt war oder der Name einer Institution angegeben wurde. Wenn im letzteren Fall ein Autor klar ersichtlich unter dem Namen dieser Institution schrieb, dessen Geschlecht anhand des Namens ermittelt werden konnte, so wurde dem Artikel dieser Institution das Geschlecht des Autoren zugeordnet. Den Fehler durch geschlechtsindifferente Namen (wie etwa Maria oder Helge, die allerdings nicht vorkamen) ist aufs Ganze gesehen vernachlässigbar. 5.2.4 Die Ermittlung von Hochschul-AccountsDie Uni-Accounts wurden nach Durchsicht der Mitgliederverzeichnisse anhand einer Liste mit Hochschul-typischen E-Mail-Adress-Bestandteilen ermittelt (.fernuni-, .fh-, .fu-, .hu-, .th-, .tu-, .tuwien, .uni-, .univie, .unibw-, .wu-, .wz-, @informatik, @euv-, @ku-). 5.3 Der FragebogenDer Internet-Befragungsliteratur war zu entnehmen, dass bei unverlangt zugeschickten E-Mail-Fragebögen, die den Empfänger im Modus einer unpersönlich zugestellten Postwurfsendung erreichen, mit einer Rücklaufquote von ca. 5% gerechnet werden darf (Batinic 1997). Ich verwendete deshalb viel Mühe darauf, eine bessere Quote zu erreichen. Obwohl es ungleich komfortabler und kostengünstiger gewesen wäre, den Fragebogen zentral über die Mailinglists zu schicken, wurde er an jedes Mitglied der ML-Soziologie und ML-Luhmann einzeln adressiert. Als Rücksendeadresse, an der die beantworteten Fragebögen eingesammelt wurden, war eine spezielle Reply-Adresse vorgegeben, um Fehladressierungen beim Zurückschicken beantworteter Fragebögen, etwa an die Mailinglist, schon aus datenschutzrechtlichen Gründen so unwahrscheinlich wie möglich zu machen. Außerdem lag mir daran, jeden Befragten persönlich ansprechen zu können und dem Risiko aus dem Wege zu gehen, dass Diskussionen über den Fragebogen auf der Mailinglist die bis dahin noch nicht Geantwortethabenden beeinflussen. Zusätzlich zu den beiden extra eingerichteten Befragungs-Accounts ("umfrage_soziologie@maroki.netzservice.de" und "umfrage_luhmann@maroki.netzservice.de"), von denen die Fragebögen verschickt und eingesammelt wurden, war eine weitere E-Mail-Adresse eingerichtet, über die Rückfragen zum Fragebogen möglch waren ("umfrage_support"). Der Support-Account wurde dann auch in recht großem Umfang genutzt. Für einen Pretest des Fragebogens wurden je 20 Adressen aus beiden Mailinglists zufällig gezogen. Die Rücklaufquote des Pretests betrug innerhalb der gesetzten Befragungsfrist 32.5%, eingerechnet der Nachzügler 37.5%. Die Auswertung des Pretests führte vor allem zu Änderungen bei Fragen, die offensichtlich zu Mehrfachantworten einluden. Es wurden weitere Antwortvorgaben und auch weitere Fragen hinzugenommen und die meisten der offen gestellten Fragen geschlossen, um die automatische Auswertung zu vereinfachen. Der überarbeitete Fragebogen wurde dann am Donnerstag, den 04.03. 1999, zwischen 00.30 und 03.05 Uhr morgens per E-Mail sämtlichen Mitgliedern der beiden Mailinglist zugeschickt, so dass er den Befragten am Donnerstag Morgen vorlag. Dieser Termin wurde gewählt aufgrund der Überlegung, dass an einem Donnerstag die Arbeit der Woche bereits überschaut werden kann und die Konzeption für das Wochenende oftmals noch nicht festgelegt ist. In diese Lücke hinein sollte die erste Begegnung mit dem Fragebogen plaziert sein. Den Nachteil, dass zu diesem Zeitpunkt vielen Orts Semesterferien waren, musste wegen interner Terminprobleme inkaufgenommen werden. Der Ablauf des Befragungszeitraums war mit dem 12.03.1999, 18 Uhr (Eingangsstempel des korrekt auf Ortszeit eingestellten, einsammelnden PCs) festgesetzt. Nach Ablauf der Hälfte des Befragungszeitraums wurden all denjenigen Mitgliedern der Liste, die bis dahin den Fragebogen noch nicht beantwortet hatten, eine Erinnerungsmail geschickt. Diese Erinnerungsmail führte dazu, dass die Anzahl der eintreffenden Fragebögen zunahm. Einige der erneut angeschriebenen Mitglieder fühlten sich offenbar regelrecht unter Rechtfertigungsdruck gesetzt und teilten dies auch unmissverständlich mit (Anhang). Der Fragebogen war so strukturiert, dass er von einem eigens dafür erstellten Programm(Endnote 10) automatisch ausgezählt werden konnte. Dieses Auszählprogramm war zwar robust ausgelegt, erwartungsgemäß traten trotzdem bei Testdurchgängen Antwortvariationen auf, die eine Bearbeitung der Originaldaten per Hand nötig machten, bevor dann anschließend das Auszählprogramm den Fragebogen codierte. 5.3.1 Probleme technisch-operativer Art mit dem Fragebogen auf Seiten der BefragtenEine ganze Reihe von Teilnehmern berichtete, dass sie sich nicht in der Lage sähen, ein x zwischen den im Fragebogen vorgegebenen eckigen Klammern einzufügen. Dieses Phänomen war zunächst nicht zu erklären. Den ersten Teilnehmern, die von diesen Schwierigkeiten berichteten, wurde ein Fragebogen ohne eckige Klammern zugeschickt. Da es aber zu unwahrscheinlich erschien, dass es Mailprogramme gibt, die die eckigen Klammern als Steuerzeichen interpretierten und dadurch das Problem verursachten, schickte ich auf weitere Nachfragen eine Mail mit dem Hinweis zu, den Fragebogen abzuspeichern, in einen Editor zu laden, dort zu beantworten und diese Datei dann als Attachement zuzuschicken. Später stellte sich heraus, dass den Teilnehmern mit diesen Schwierigkeiten nicht klar war, dass sie die Fragebogen-Mail mit dem Beantworten-Befehl (Reply) vom Lesemodus in den Schreibmodus bringen mussten. Diese elementaren Fertigkeiten im Umgang mit einem Mailprogramm dürfen offenbar nicht als geläufig vorausgesetzt werden. Dieser Sachverhalt läßt sich als Indiz für das mangelnde Training bzw. generell für die schlechte Ausbildung an den Kommunikationsmaschinen werten. Insofern sollte man in dem Einleitungstext eines per E-Mail verschickten Fragebogens einen Hinweis darauf geben, dass man zur Beantwortung des Fragebogens vom Lese- in den Schreibmodus wechseln muss. Ein weiteres technisches Problem stellte sich aufgrund der Länge der Fragebogen-Mail ein. Einige Editoren der Mailprogramme sind offenbar nicht in der Lage, E-Mails im Umfang von mehr als 27kB korrekt zu laden. Aus diesem Grunde sind einige der Fragebögen zum Ende hin (ab Frage V63) regelrecht abgerissen. Davon betroffen waren insbesondere Teilnehmer, die von T-Online-Accounts schrieben. Insofern sollte man darauf achten, dass ein Fragebogen die Länge von 25kB möglichst nicht überschreitet. 5.3.2 Probleme technisch-operativer Art seitens des automatischen Auszählens der FragebögenDas Programm zum Auszählen der per E-Mail eingetroffenen Fragebögen war daraufhin ausgelegt, dass die Antworten im ASCII-Klartext vorliegen. In insgesamt acht Fällen wurden base64-codierte, komprimierte Attachements, die in zwei Fällen obendrein die Antworten im WinWord-Format enthielten, zugeschickt. Diese Mails mussten zunächst von Hand ins ASCII-Format gewandelt werden. Insofern sollte man - solange ein Auszählprogramm nicht in der Lage ist, derartige Dateien automatisch zu dekodieren - im Einleitungstext nachdrücklich darum bitten, dass der beantwortete E-Mail-Fragebogen im ASCII-Klartext zurückgeschickt wird. Generell hätte mit mehr Nachdruck auf den Umstand der automatischen Auswertung hingewiesen werden sollen. Es wäre zwecks Verringerung von Syntax-Fehlern seitens der Antwortenden sicher sinnvoll gewesen, wenn die vor die Klammer gezogenen Instruktionen im Kopf des Fragebogens durchnummeriert und klar vom sonstigen Text abgesetzt worden wären. Die Befragten hätten durch diesen optischen Halt leichter memorieren können, dass es bei den Antworten insgesamt drei herausgehobene Aspekte gab, die zu beachten waren. Nicht standardisierte Bemerkungen, etwa wenn das Item "SONSTIGES" angekreuzt wurde, sollten außerhalb der Klammern notiert werden. Daran hat sich jedoch bis auf eine Ausnahme niemand gehalten. Solche Bemerkungen wurden ganz überwiegend zwischen den Klammern gefügt. Dies ist ein konsistentes Verhalten seitens der Befragten, erzeugte aber Probleme bei der automatischen Auszählung. Eine konsistente Benutzerführung ist wichtiger als die Berücksichtigung technischer Belange. Das Programm hätte entsprechend anders ausgelegt sein müssen. In einigen Fällen, in denen um die Angabe einer Zahl gebeten wurde, waren die Zahlenbereiche oder Zahlen mit Textergänzung angegeben (beispielsweise in der Form 10 - 15 oder ca. 10). Das Zählprogramm erwartete an dieser Stelle jedoch nur eine einzige, ganze Zahl. In solchen Fällen wurde bei der Auswertung von Hand das arithmetische Mittel eingesetzt und gegebenenfalls nach oben hin aufgerundet. Insofern sollte man im Einleitungstext auf das Zahlenformat hinweisen und/ oder das Auszählprogramm robuster auslegen. Es gab noch eine ganze Reihe an weiteren, fehlerhaft ausgefüllten Antworten, die vom Auszählprogramm nicht automatisiert ausgewertet werden konnten: [ x ] [x [x[ [x = ] x[] []x [FONT face=Arial size=3>x</FONT>] [ [Nachname Vorname] x] [x] Es folgt Text, der statt des x zwischen den Klammern eingefügt sein sollte. Darüberhinaus gab es einen Fall, bei dem sämtliche eigentlich vertikal angeordnete Antwort-Items durch Löschen des Zeilenende-Steuerzeichens zu einer einzigen Zeile zusammengefügt waren. Auch das erschwerte eine automatische Auszählung. Anhand dieser empirisch ermittelten Fehler, die die konzeptionelle Phantasie während der Programmierung zum Teil überstiegen, lassen sich natürlich zukünftig Strategien zur Steigerung der Robustheit des Auszählprogramms entwickeln. Bei den offen gestellten Fragen V43, V44, in denen Beurteilungen der Mailinglist abgegeben werden konnten, wurden in einem ersten Schritt die erhaltenen Antworten interpretiert und daraus eine Reihe von Kategorien für beide Listen entwickelt. Zur Steigerung der Ordnung der Darstellung sind die Kategorien nach Bereichen gegliedert, die in unmittelbarem Zusammenhang mit dem Gesamtrahmen der Listen stehen. Für beide Listen lassen sich eine Reihe von Bereichen unterscheiden, denen die kategorisierten Antworten dann zugeordnet wurden. Ein Teil der Kategorien wurde dem Bereich des konstitutiven Grundverständnisses der Liste zugeordnet, dem die Liste ihre Namensgebung verdankt. Ein weiterer Teil der Kategorien wurde dem technisch-organisatorischen Bereich zugeschlagen. Drittens liessen sich verschiedene Kategorien dem formalen Bereich der Diskussionsführung innerhalb der Liste zuzählen. Viertens wurde eine Reihe von Kategorien dem Bereich unterschiedlicher Bedeutungsgehalte von Beiträgen zugeschrieben. Und fünftens schließlich werden Kategorien unterschieden, die dem Bereich bezeichneter Erträge zugerechnet werden. Gemäß dieses Ordnungsrahmens wurden die Antworten einsortiert und dann ausgezählt. Zum Teil waren die Antworten so beschaffen, dass sie mehrere Aspekte ansprachen. In solchen Fällen wurden die Antworten zerlegt und nach den darin enthaltenen Komponenten unterschieden. 5.3.3 Methodische Unzulänglichkeiten des FragebogensEs ist verständlich, dass sich Menschen wehren, wenn sie den Eindruck haben, die Auffangkomplexität eines Fragebogens werde ihnen nicht gerecht. Ein Fragebogen kann eine solche Erwartung des Gerechtwerdens bei nicht-trivialen Fragestellungen grundsätzlich nicht erfüllen, da er primär in eine spezifische Begriffs- und Forschungskonstellation eingespannt ist und von daher etwas anderes als ein Kompromiss zwischen gerade noch angemessener Auffangkomplexität und möglichst effektiver Auswertung nicht erwartet werden darf. Um den immer gegebenen Abwehrimpuls seitens der Befragten so gering wie möglich zu halten, waren eigens zwei offene Fragen vorgesehen, in denen die Befragten sich ohne standardisierte Vorgaben sowohl zur Mailinglist (Frage V43/ V44) als auch zum Fragebogen und der Forschungsfrage (V63) äußern konnten. Das Hauptproblem bei der Auswertung der Fragebögen verursachten Mehrfachnennungen, die nicht vorgesehen waren. Auch wenn im Vorspann des Fragebogens geschrieben war, dass Mehrfachnennung zu vermeiden seien, so sind trotzdem häufig auftretende Mehrfachnennungen natürlich nicht nur als fehlende Disziplin seitens der Befragten, sondern ebenso als eine Schwäche der Frage- bzw. Antwortkonstruktionen zu werten. Es wäre sinnvoll gewesen, trotz der hohen Redundanz, jedes Mal von Neuem hinzuschreiben, dass Mehrfachnennungen zu vermeiden sind. Die Auswahl anleitenden Bewertungsbegriffe wie "vorwiegend", "hauptsächlich" oder "primär" wirkten als Schutz gegen Mehrfachnennungen ganz offenbar zu schwach.(Endnote 11) Bei den Fragen V16, V17, V18, V52, V56 und V57 in den Fällen, in denen es zu Mehrfachnennungen kam, wurde die Anzahl der Mehrfachnennungen festgehalten: 2-fache Mehrfachnennung sowie Mehrfachnennungen > 2. Hier zeigt sich einfach das Problem, dass im ASCII-Code keine Möglichkeit besteht, mittels Layout einerseits die Gültigkeit einer Anweisung zu signalisieren und sie zugleich optisch zurückzunehmen. Die am häufigsten anzutreffenden Mehrfachnennung waren:
In V31 wurde der Begriff "Artikel" von einem Befragten mißverstanden im dem Sinne, ob man einen Artikel/ Aufsatz, der als Fachaufsatz in einem klassischen Papiermedium veröffentlicht wurde, nun zusätzlich auch in der Mailinglist publiziert hätte. Die Wahrscheinlichkeit für ein solches Mißverständnis wäre vermutlich kleiner gewesen, wenn statt von einem Artikel von einem Beitrag, wie zuvor schon, die Rede gewesen wäre. In V32, der Frage danach, wieviele E-Mails zusätzlich zu einem Beitrag bidirektional verschickt werden, haben zwei Befragte "100" Mails angegeben. Eine solche Angabe weist auf eine nicht intendierte Interpretation hin. Gleiches gilt für V33. In einigen Fällen scheint es so, als ob die Frage so verstanden wurde, wie viele Mails insgesamt schon verschickt wurden. So wurde mehrere Male eine 100 eingegeben, in einem Falle 45. Danach war aber nicht gefragt. Derart unplausible Zahlenangaben, deren Missinterpretation als Fehler im Fragebogendesign zuzuschreiben ist, wurden als Fehler codiert. In V58 und V59, den Fragen nach dem akademischen Status mit spezifischem/unspezifischem Bezug zur Soziologie, hätte beim Studium nach Neben- und Hauptfach unterschieden werden sollen. In einer ganzen Reihe von Fragebögen wurde sowohl bei V58 als auch bei V59 Studium angekreuzt, was bei Nebenfächlern auch Sinn macht. Ich habe diese aber nicht als Nebenfächler codiert, das erschien mir als zu unsicher, sondern als "mit spezifischem Bezug zur Soziologie" stehend vereindeutigt. Das primäre Interesse lag darin, den akademischen Status soziologischer Experten, zu denen auch die Nebenfächler zählen, von soziologisch Interessierten ohne jeglichen akademischen Bezug zu unterscheiden. Es sind trotzdem einige Fälle verblieben, die sich nicht vereindeutigen liessen, so dass Nennungen in beiden Fällen bestehen blieben. In V61, der Frage nach dem Geschlecht, wurde eine falsche Anweisung gegeben. Es sollte ein x zwischen den Klammern eingefügt werden. Die Frage bat sinnloser Weise um die Angabe der Anzahl an Jahren. An der Fragebogenkonstruktion wurde mehrfach moniert, dass keine Indifferenz- bzw. Neutral-Items wie "weiß ich nicht" oder "teils-teils" vorgesehen waren. Statt eine solche Kategorie vorzusehen, die zu stark der zentralen Tendenz unterliegen, legte ich mehr Wert auf Differenzierungen auf einer entschiedenen Seite. Methodisch ist das sicherlich diskussionswürdig. 5.3.4 Regeln der AuszählungWenn ein Fragebogen sowohl im ASCII-Klartext als auch zusätzlich per Attachement, typischerweise als HTML-Anlage, zugeschickt wurde, so wurde allein der voranstehende ASCII-Klartext ausgezählt. Ausgezählt wurden nur solche Fragebögen, bei denen zumindest die Hälfte der Fragen beantwortet waren. Wenn jemand umfangreichere Kommentare in einer Extra-Mail dem Fragebogen hinterherschickte, wurden diese Kommentare von Hand in die V63 kopiert. Diese Frage V63 war eigens für solche Kommentare vorgesehen. Als in V64 formal nicht korrekt beantwortet eingestuft wurde ein Fragebogen dann, wenn Mehrfachnennungen auftraten; wenn es einen Verstoß gegen die Strukturvorgaben gab (beispielsweise ein x nicht zwischen den beiden eckigen Klammern eingefügt war) oder wenn der Fragebogen zum Ende hin abgerissen war, weil die Kapazität des Editors, in dem der Fragebogen bearbeitet wurde, nicht hinreichte. 5.3.5 Die Rücklauf- und Beteiligungsquote
Es ließ sich nicht jeder Fragebogen zustellen, weil sich einige Adressen von Mailinglist-Mitgliedern als fehlerhaft herausstellten. Insofern macht es Sinn, eine um die Fehladressierungen bereinigte Rücklaufquote anzugeben. Darüberhinaus ist es sinnvoll, neben der Rücklaufquote eine Beteiligungsquote auszuweisen, weil es eine ganze Reihe an Mails gab, die an die Support-Adresse adressiert waren und in denen Teilnehmer begründeten, warum sie den Fragebogen nicht ausfüllen wollten oder konnten. Wenn man auch diese Teilnehmer berücksichtigt, läßt sich der Umfang derjenigen, die in keinster Weise schreibend in Erscheinung treten wollen (oder können) und die im Netzjargon als Lurker bezeichnet werden, noch etwas besser eingrenzen.
Um die Zahl der Hardcore-Lurker, die definitiv niemals auf der Liste oder bei einer Befragung in Erscheinung treten (also knapp 50% sämtlicher Teilnehmer beider Listen), etwas einzugrenzen, lassen sich einige Faktoren nennen, die der Teilnahme am Mailinglistgeschehen oder einer Umfrage entgegenstehen: Erreichbarkeit: Zum einen waren Semesterferien, wodurch insbesondere Studenten, die über keinen Privataccount in der Liste eingeschrieben sind, relativ unterrepräsentiert sein dürften. Technische Kompetenz: Es sind technische Probleme beim Beantworten von Mails in Rechnung zu stellen, seien diese dinghafter Art (Provider hat Probleme, der PC funktioniert nicht) oder kognitiver Art (generelles Ungelenksein im Umgang mit der Technik). Diesen technisch bedingten Anteil schätze ich relativ hoch ein. Zwar wurde die Hürde des Anmeldens in der Liste gemeistert, doch kann diese durch einen hilfreichen Experten vorgenommen worden sein. Es mögen Unsicherheiten darüber bestanden haben, ob bei einem etwaigen Reply der Fragebogen in die Mailinglist gerät und ähnliches mehr. Sprachliche Kompetenz: Bei nicht-deutschen Teilnehmern ist mit sprachlichen Problemen beim Verstehen und Beantworten von Mails zu rechnen. Doppelmitgliedschaft: Eine Doppelmitgliedschaft in beiden Listen kann dazu führen, dass der Fragebogen nur in einer der beiden Listen beantwortet wurde. 5.4 Überlegungen zu computergestützten Auswertungen und internetbasierten UmfragenEinen aktuellen Diskussionsstand zum Einsatz von Computern zur Datenerhebung findet man bei Galliker (Galliker 1998). Wir müssen auf diese Diskussion, die sich darum bemüht, Computer gerade auch zur Analyse nicht-standardisierter Daten einzusetzen, nicht weiter eingehen. Das Auswerten und Generieren der Daten stellt methodisch keine bemerkenswerten Ansprüche, wie sie etwa für ambitionierte Textanalysen qualitativ erhobener Daten bestehen. Einen knapp gehaltenen Überblick zu internetbasierten Umfragen, die naheliegenderweise von vornherein computergestützt ausgelegt sind, findet man bei Bandilla/ Hauptmanns (Bandilla/ Hauptmanns 1998).(Endnote 12) Bandilla/ Hauptmanns diskutieren drei Techniken zur Datenerhebung: Befragungen per E-Mail, Befragungen in Newsgroups und WWW-Befragungen, wobei ihr Schwerpunkt auf Befragungen per World-Wide-Web liegt. Während bei Befragungen per E-Mail als Vorteile Schnelligkeit, Asynchronizität und Ökonomie hervorgehoben werden und als Nachteil das Aufdrücken der Empfangskosten beim Empfänger, so werden bei Web-Befragungen als Vorteile vor allem die Vorgabe von einfach zu handhabenden Formularen und die mögliche Unterstützung durch Ton- und Videodaten genannt. Als Nachteile von Web-Befragung werden angeführt, dass die zu Befragenden erst einmal an die Web-Seite mit den Fragen gelangen und dann bereit sein müssen, unter Umständen die Kosten für eine rund 30-minütige Onlineverbindung zu tragen. Den methodisch schwerwiegendsten Nachteil internetbasierter Befragungen sehen die Autoren naheliegender Weise in der fehlenden Repräsentativität der erhobenen Daten. Dieser Nachteil sei nur dann hinfällig, wenn die Befragten und die Grundgesamtheit ihrerseits einen Bezug zu Netznutzern ausweisen. Als Beispiele führ unproblematische Grundgesamtheiten nennen Bandilla/ Hauptmanns "alle Mitglieder einer Organisation, die das Intranet benutzen", "alle Besucher einer Website in einem spezifischen Zeitraum" oder "alle Teilnehmer einer Mailinglist". Sie stellen fest, dass bei Netzbefragungen grundsätzlich keine Zufallsstichproben gezogen werden könnten und die Stichproben immer in vergleichsweise sehr hohem Maße selbstselektierend seien. Insofern lautet das Fazit im Hinblick auf die Hochrechenbarkeit der Daten für die Grundgesamtheit der deutschen Bevölkerung, dass eine generelle Nutzung der Methode 'Online-Befragung' für repräsentative Umfragen z.Z. nicht möglich sei (Bandilla/ Hauptmanns 1998: 42). Im weiteren Teil der Untersuchung widmen sie sich den Internet-Nutzern. Um das Ausmaß der Verzerrungen bei repräsentativ angelegten Netzerhebungen abschätzen zu können, werden charakteristische Unterschiede zwischen der Gruppe der Internet-Nutzer und der restlichen Bevölkerung Deutschlands angegeben. Wenn man anders als Bandilla/ Hauptmanns nicht auf Befragungen abzielt, die repräsentativ für eine Gesamtbevölkerung sein sollen, kann man in einigen Aspekten zu leicht verschobenen Urteilen gelangen, etwa zum Selbstselektions-Aspekt: Streng betrachtet spielt der Aspekt der Selbstselektion bei allen Formen der Befragung eine Rolle, mit Ausnahme vielleicht gesetzlich verordneter Befragungen. Dieser Aspekt kann deshalb nicht als Besonderheit gegen die elektronischen Formen der Befragung aufgeführt werden. Web-Befragungen sind nur dann in hohem Maße selbstselektiv, wenn öffentlich auf die Befragung hingewiesen wird mit der Bitte, es mögen möglichst viele Menschen die Website mit dem Fragebogen aufsuchen. Hier stimmt das Argument.(Endnote 13) Der Fall liegt aber schon anders, wenn eine Geschäftsleitung sämtliche Mitarbeiter mit einem firmenfinanzierten Netzzugang, gleichgültig ob Intra- oder Internet, dazu aufforderte, an der firmeninternen Web-Befragung teilzunehmen. Wer nicht daran teilnimmt, wird sich rechtfertigen müssen. Es könnte in dieser Situation Sinn machen, eine Zufallsstichprobe aus den Mitarbeitern zu ziehen und nur die Ausgewählten zur Beantwortung des Fragebogens aufzufordern. Gleiches gilt für E-Mail. So können aus einer Liste von E-Mailadressen sehr leicht durch Zufallsauswahl Adressen gezogen werden, beispielsweise um vor einer Vollerhebung in einer Mailinglist einen Pretest des Fragebogens durchzuführen. Genau so wurde in dieser Befragung verfahren. Darüberhinaus setzt eine Befragung per E-Mail, im Unterschied zu vergleichbaren Befragungen per Web, keine in dem Masse homogene technische und organisatorische Umgebung voraus. Ich vermute deshalb, dass für klassische Formen der Befragung, auf Möglichkeiten nicht-klassischer Formen komme ich anschliessend kurz noch zu sprechen, E-Mail in dieser Bilanz besser als das Web abschneidet, zumal E-Mail mit 97.2% der am häufigsten genutzte Internet-Dienst ist (vgl. Fittkau & Maß 1999). Bei der Durchsicht der Literatur zu Netzbefragungen fiel auf, dass Befragungen per E-Mail, gemessen an der Anzahl und Umfang der Artikel, in der Forschungsliteratur einen geringeren Stellenwert einnehmen als Befragungen per Web. Ich vermute, dass die Möglichkeiten von E-Mail deshalb unterschätzt werden, weil insbesondere die operativen Fehler bei der Datenerhebung und der Auswertung als zu groß eingeschätzt werden. Denn zweifellos muss der Fehler einer Datenerfassung per Mail größer ausfallen als der bei der Datenerfassung per Web-Formular, bei dem Syntaxfehler von vornherein ausgeschlossen sind. Wie groß fiel der operative Fehler der vorliegenden Mail-Befragung aus? Die Syntaxfehler, im Sinne von operativ fehlerhaften, nicht maschinell eindeutig auswertbaren Antworten, waren erstaunlich gering. Zählt man allein die als fehlerhaft oder als Mehrfachnennung codierten Antworten in beiden Befragungen zusammen, dann beläuft sich die Gesamtzzahl operativer fehlerhaft beantworteter Fragen auf 107. Das entspricht auf Grundlage sämtlicher Fragen einer Fehlerquote von 0.54%. Im Durchschnitt wurden hiernach von 200 Fragen rund eine Frage technisch nicht trivial auswertbar beantwortet. Allerdings wurden vor der automatischen Kodierung der eingetroffenen Fragebögen diese durchgesehen und in einigen Fällen korrigiert, sofern die Angaben eindeutig interpretierbar, aber für das Auszählprogramm in der Form nicht auswertbar waren. Die genaue Zahl dieser von Hand durchgeführten Korrekturen habe ich leider nicht systematisch erfaßt. Jedoch wurde zu jedem Fragebogen festgehalten, ob die Fragen ausnahmslos syntaktisch korrekt und damit technisch problemlos auszählbar beantwortet wurden. In der ML-Soziologie waren 71.7%, in der ML-Luhmann 51.1% der Fragebögen in diesem Sinne syntaktisch fehlerlos (Ergebnistabelle V64).(Endnote 14) Von diesen Zahlen ausgehend ist insofern eine weitere Abschätzung möglich, wenn pro fehlerhaftem Fragebogen eine bestimmte Anzahl an Syntaxfehlern unterstellt wird. Dieser Überlegung gemäß käme man bei 2 unterstellten Fehlern pro Fragebogen auf eine Fehlerquote von 1.2%, bei drei unterstellten Fehlern pro Fragebogen auf eine Fehlerquote von 1.8 syntaktisch fehlerhaft beantworteter Antworten auf 100 Fragen. Um die Abschätzung des operativen Fehlers durch worste-case-Angaben noch robuster zu machen, habe ich jede der Antworten der zwei nicht-decodierbaren Mails sowie die der zwei Word-Attachements, weil diese erst von Hand in eine auswertbare Form gebracht werden mussten, als operativ-syntaktisch vollständig falsch (hinzugezählt). Dann beläuft sich die Fehlerquote, bei drei unterstellten Fehlern pro syntaktisch falschem Fragebogen, auf insgesamt 3.1%. Hierbei überwiegen eindeutig die Mehrfachnennungen, die nicht allein als Syntax-Fehler gebucht werden sollten, sondern als Designfehler des Fragebogens. Insofern liegt die operative Gesamtfehlerquote der syntaktisch falsch beantworteten Fragen in dieser Befragung bei maximal 3%.(Endnote 15) Vor einer Verallgemeinerung dieser Fehlerquote von 3% muss allerdings die Quote verschlechternd in Rechnung gestellt werden, dass eine außergewöhnlich große Zahl an Befragten der beiden Mailinglists den Umgang mit Befragungstechniken gewohnt ist und sich mehr als andere Gruppen den Schwierigkeiten einer automatischen Codierung und Auszählung bewußt sein kann. Zu berücksichtigen ist ferner, dass die Befragten vermutlich außergewöhnlich hoch motiviert und interessiert sein dürften, weil die Ergebnisse der Selbstaufklärung des eigenen Tuns dienlich sein könnten (vgl. Bosnjak/ Batinic 1999). In Befragungen mit einem geringeren in Aussicht gestellten Gewinn für die Teilnehmer, von denen einige zudem unter Umständen zum ersten Mal selbsttätig einen Fragebogen ausfüllen sollten, ist insofern mit einer größeren Syntax-Fehlerquote zu rechnen. Die bessere Kontrollierbarkeit der Antworten bei Web-Befragungen durch Formularvorgaben ist theoretisch zweifellos gegeben. Aber ob dieser Vorteil praktisch wirklich relevant ist, ist nur schwer zu entscheiden. Ich halte die Fehlerquote der vorliegenden Untersuchung für gering und - im Vergleich zu Kodierungsfehlern bei Übertragungen von klassischen Papier-Befragungen in Datenmatrizen, aber auch im Vergleich zu Web-Befragungen außerhalb geschlossener Benutzergruppen - für absolut vertretbar. Bei Web-Befragungen ist zu berücksichtigen, dass Befragte, wenn sie sich durch Formular-Vorgaben zu sehr eingeengt fühlen, sich auf keine der angebotenen Antworten festlegen mögen. Bei einer Mail-Befragung würden sie sich stattdessen über die Anweisung hinwegsetzen und als Fehler codierte Mehrfachantworten geben. Insofern liesse sich vermuten, dass in Web-Befragungen zwar keine nicht-zugelassenen Mehrfachnennungen auftreten, dafür die Zahl der nicht-gegebenen Antworten relativ höher liegt. Die syntaktisch-operative Fehlerquote hätte sich in dieser Befragung mit Sicherheit verringern lassen, wenn ...
Damit verblieben aus meiner Sicht unter klassischen Befragungsbedingungen als wirklich schwerwiegende Vorteile von Web-Befragungen gegenüber Mail-Befragungen die Möglichkeiten der Nutzbarkeit eines ansprechenden Layouts von Fragen und Anweisungen sowie insbesondere von Multimedia-Optionen (Einspielen von Audio- und Videodaten). Konkurrenzlos attraktiv wären Web-Befragungen dann, wenn die Forscher nicht länger am Papierparadigma festhielten, sondern nicht-klassische dynamische Fragebögen realisierten. Dynamische Fragebögen zeichnen sich dadurch aus, dass sie eine vom Befragten gegebene Antwort erst auswerten - etwa in Form von Client-Anfragen beim Server oder bei geringem Umfang in Form eines Java-Applet -, bevor sie die nächste Frage präsentieren. Ein solches Vorgehen empfiehlt sich schon in heutigen Client-Server-Umgebungen wie Web-Befragungen, wenn man an Plausibilitätstests oder Filterfragen denkt. Verallgemeinert man die Möglichkeiten von dynamischen Fragebögen, dann liesse sich behaupten, dass sie sich stärker als passive Fragebögen den Befragten anpassten und somit die Eigenkomplexität des Befragten besser im Datensatz abbildeten, etwa vergleichbar dem, was man mit teilstandardisierten Interviews zu erreichen versucht.(Endnote 16) An diesen Techniken wird gearbeitet. Es deutet sich an, dass eine solche Veränderung der Technik eine Veränderung der Organisation mit sich bringt. Technisch gesehen entnimmt der Forscher die Stimuli eines dynamischen Fragebogens einer Datenbank und muss diese entlang einer komplexen Stimulationsstrategie zusammensetzen. In einem dynamischen Fragebogen liessen sich dann die Fragen und Skalen in ihrer aktuellsten Form in Realtime aus per Internet verbundenen spezialisierten Datenbanken generieren. Für solcher Art permanent methodisch überwachter Stimuli sind, wie es vielfach seit langem schon insbesondere in der Psychologie der Fall ist, Lizenzgebühren zu zahlen. Dadurch können sich, stärker als bislang schon geschehen, neue Formen der Zusammenarbeit und Arbeitsteilung als Dienstleistungen im akademischen Bereich herausmendeln. Allerdings wohl um den Preis, dass zunehmend weniger Fragen überhaupt noch ohne Lizenzabgaben gestellt werden können, zumindest wenn ein professioneller Anspruch gestellt wird. EndnotenEndnote 1: Man erhält die Beiträge der ML-Soziologie beispielsweise vom Mai 1997, wenn man an die Listserv-Adresse (listserv@listserv.gmd.de) den Befehl get soziologie log9705 schickt. - zurück - Endnote 2: Ich danke Martin Recke, der die Beiträge aus der Pre-GMD-Zeit der ML-Soziologie zur Verfügung stellte. Diese Beiträge habe ich mit meinem privaten Datenbestand aus dieser Zeit verglichen, bevor sie dann dem Gesamttextbestand zugefügt wurden. - zurück - Endnote 3: Ich wurde auf diesen theoretisch interessanten Sachverhalt aufmerksam, weil sich in einigen Fällen ein Subject nach über einem Jahr wiederholte und dadurch die ermittelten Standardabweichungen für die Länge und Dauer von Threads unplausibel wurden und an Aussagekraft verloren. - zurück - Endnote 4: So sind die Antwortzeiten des Mailservers nicht garantiert und die Anbindung der Teilnehmer kann mit ganz unterschiedlichen Techniken (realtime (Internet-online) oder zeitversetzt (beispielsweise per Poll-Netzanbindung, wie sie im uucp-Netz und Mailboxnetzen üblich ist)) realisiert sein. - zurück - Endnote 5: Deshalb befindet sich auf der Daten-CD im Verzeichnis "bearbeitet" der ML-Soziologie und der ML-Luhmann eine Datei, die über sämtliche Mailinglistbeiträge hinaus auch die Klassifizierungscodes enthält. - zurück - Endnote 6: Man erhält die Mitgliederlisten der Mailinglists zugeschickt, wenn man als Mitglied der Liste an die Listserv-Adresse den Befehl review soziologie respektive review luhmann oder review imd-lschickt. - zurück - Endnote 7: Ich danke Hinrich Kuhls für die Übermittlung der Teilnehmerliste von 9809 und Christian Stegbauer für die Übermittlung der Teilnehmerliste von 9810 und die Teilnehmerzahlen für 9707, 9708 und 9709. Rainer Rilling gebührt Dank für die Teilnehmerlisten der ML-IMD. - zurück - Endnote 8: Derartige sozial-kommunikative Experimente verbirgt man ohnehin besser hinter Pseudonymen, die für Beobachter nicht erkennbar sind. - zurück - Endnote 9: Hierbei fiel auf, dass bei der ersten Subscription der Liste überwiegend der Titel im Namen angeführt wurde, der in der nächstfolgenden Anmeldung dann oftmals fehlte. - zurück - Endnote 10: Die Programme sind in Rexx programmiert und laufen unter Linux. - zurück - Endnote 11: So hätte bei der vorangestellten Frage der Variablen V5 bis V13, in der nach den hauptsächlichen Motiven für die Subscription der Liste gefragt wird, auf das "hauptsächlich" besser verzichtet werden sollen, wenn anschliessend die Motive vorgegeben werden. - zurück - Endnote 12: Mittlerweile sind umfangreichere Publikationen zu diesem Thema erschienen z.B. Batinic (vgl. Batinic et al., 1999), Janetzko (vgl. Janetzko 1999) oder Welker (Welker 1999). Hilfreich auch die Untersuchung von 12 Online-Studien bei <e>market - "Rubrik Nutzerzahlen". - zurück - Endnote 13: Man könnte hierbei eine Beteiligungs- und eine Rücklaufquote unterscheiden Tabelle, wenn man neben den ausgefüllten auch diejenigen Clients, die den Fragebogen zwar aufrufen aber nicht ausfüllen, registrierte. - zurück - Endnote 14: Sobald sich etwa ein x außerhalb der vorgesehenen Klammer befand, eine Zahl durch einen Textstring wie "ca." ergänzt wurde oder auch eine Mehrfachnennung auftrat, wurde der Fragebogen als "syntaktisch nicht vollständig korrekt" beantwortet taxiert. - zurück - Endnote 15: Abgerissene bzw. nur teilweise beantwortete und nicht-ausgefüllte Fragebögen müssen hier nicht berücksichtigt werden, weil diese automatisch aussortiert und damit nicht ausgewertet wurden. Hinzukommt, dass dieser Fehler nicht spezifisch nur bei Mail-Befragungen auftritt. - zurück - Endnote 16: Allerdings könnten unter Umständen die durch dynamische Fragebögen erzielten Ergebnisse sogar besser als die von menschlichen Interviewer ausfallen, da diesem nur eine begrenzte Auffangkapazität zugemutet werden kann, einer Maschine aber unter Umständen große Teile des digitalisierten Weltwissens zur Verfügung steht. - zurück - |