28.9.06

HOK Lesen/Schreiben: Von Aggressionen und Aggregatoren

Der Fall einer belgischen Zeitung, die sich gegen die ungefragte Verwertung durch GoogleNews wehrt, weist auf eine bemerkenswerte Eigenschaft der Internet-Gesellschaft. Die Aggregation von Daten, die von anderen erstellt worden sind, wird zu einem Mehrwert generierenden (und damit Profit abwerfenden) Service. Google programmiert die Suchmaschinen, welche die Websites der bekannten Zeitungen abgrasen, lässt die Inhalte gescheit darstellen und kassiert für diese Aggregation eine Menge Werbegeld, dass den Produzenten der Informationen fehlt.

Auf dieses Ungleichgewicht der web 2.0-Ökonomie weist auch Geert Lovink in seiner kritischen Würdigung "Kein Zugriff" hin (Zusammenfassung seiner kommenden Publikation bei "Jungleworld"). Er zeigt das Prinzip auch anhand community-basierter Aggregations-Leistungen auf. Die Tagging-Funktionen habe nicht nur strukturierenden Nutzen für die angemeldeten User einer Community. Sie lassen auch Profilierungen und Marktstudien zu. Wikipedia (um noch einen Schritt weiter weg von den technischen Aggregations-Definitionen zu gehen) ist nicht nur eine Gratis-Dienstleistung, die locker alle bezahlten Modelle der Wissensaggregation (Lexika) punkto Popularität aussticht - es ist auch ein Rekrutierungsfeld für Autor/innen, die sich bereits profiliert haben und nun in anderen Projekten genutzt werden können. Wikipedia ist auch eine beliebte Quelle für so genanntes DataMining: das Auswerten der Datenbestände mit verschiedensten Fragestellungen.

Bei Google kann man noch der Meinung sein, es handle sich um eine Produktivitätssteigerung bei der Datenverwertung, wie dies die Mechanisierung und Informatisierung bei der Produktfertigung im 19. und 20. Jahrhundert war. Doch bei den Geschäftsideen im web 2.0 wird mit dem Community-Effekt günstig produziert, dank Idealismus, Altruismus, Spieltrieb, Exhibitionismus. Jüngstes Beispiel ist der Versuch von Google, mit einem Online-Game durch die Community seine Bilddatenbank beschlagworten zu lassen. Wikipedia ist zwar im Gegensatz zu Google (und anderen web 2.0-Firmen) ein Non-Profit-Unternehmen. Doch es generiert auch ziemlich viel Geld - durch Spenden. Davon können einige Leute leben, nicht zuletzt Gründer Jimmy Wales. Doch weitaus wichtiger: die Wikipedia-Community beschert dem Wikipedia-Gründer wertvolle Aufmerksamkeit, die er auch für kommerzielle Projekte (wie Wikia) nutzen kann. Letztlich geht es bei Projekten wie bei Wikipedia nicht nur um die Frage der wissenschaftlichen Güte der gemeinschaftlich-ehrenamtlich erstellten Inhalte. Es ist auch eine Verdrängung bezahlter Professionals durch idealistische Freiwillige.

Zuletzt noch ein gewagter Schlenker in die akademische Welt. Wer die Bedeutung des Aggregations-Prinzips für das web 2.0 verstanden hat, und sieht, wie dieses Prinzip bei Google, Flickr, Wikipedia und in privaten Blogs zur Anwendung kommt, staunt nicht mehr darüber, dass mit den Nutzer/innen des web 2.0 auch Copy/Paste-Verhalten und Plagiats-Vergehen in den Universitäten Einzug halten. Doch einfach nur ein sorgloses Umgehen mit fremdem geistigen Eigentum bei den jungen Studienanfängern zu beklagen, greift zu kurz. Was wird denn von Ihnen verlangt - und was haben Sie für Vorbilder?

In einem zunehmend verplanten und modularisierten, auf Leistung (= in Credits messbaren Output) getrimmten Bologna-Hochschul-System kann es nicht überraschen, dass die Aufgaben im Grundstudium oft einfachen Aggregationen gleichen. "Fassen Sie zusammen!" ist als wissenschaftliche Herausforderung so dürr, dass es zum Copy/Paste einlädt. Stattdessen wären klare Fragestellungen zu verlangen, bzw. auch zu vermitteln, was eine klare Fragestellung ausmacht und wie diese eine wissenschaftliche Arbeit schon grundlegend strukturieren kann. Denn: auch wer sauber ein Zitat nachweist, muss es noch lange nicht gelesen oder gar verstanden haben.

Generell sollte nicht nur mit dem Argument der wissenschaftlichen Redlichkeit (keine fremden Erkenntnisse als eigene ausgeben) gearbeitet werden. Denn oft sind die Vorbilder nicht so vorbildlich, wie sie sein sollten: Auch bestandene Akademiker werden immer öfter beim Tricksen und Klauen entlarvt - nicht immer mit Konsequenzen. Und ist eine Paraphrase nicht oft einfach eine elegante Vermeidung des offensichtlichen Bekenntnisses, dass einem selber nichts Besseres eingefallen ist, man dies aber elegant in eigene Worte fassen kann?

Immerhin, und dies sei hier auch erwähnt, kann nicht genug auf die lernpsychologische Wirkung des epistemischen Schreibens hingewiesen werden: Sachverhalte besser verstehen, indem man sie verständlich niederzuchreiben versucht.

Zu den Argumenten der Redlichkeit und der Lernpsychologie kommt auch noch jenes der Urheberrechte: man ist in der Regel nicht befugt, ohne Nachweis längere Passagen aus Werken anderer abzuschreiben/ zu kopieren. Hier gilt jedoch zu beachten, dass die GNU Public License die bestehenden Regeln verändert. Aus Wikipedia darf ohne Zitatnachweis wörtlich zitiert (auch in beliebig abgeänderter Form) werden - solange das Ergebnis auch der GNU Public License untersteht und frei weitergegeben und weiter bearbeitet werden kann.

Noch zum Titel: Angesichts der starken Überzeugungen, die zur Disposition stehen (Konzepte der Wissenschaftlichkeit), und der ökonomischen Realitäten (Wer bezahlt und wer kassiert?) wundert mich der zuweilen scharfe Ton nicht, mit dem über die "schlimmen Entwicklungen" des Internets - und des web 2.0 als Untermenge davon - hergezogen wird. Aber bleibt nur Euphorie, Fatalismus oder Beklagen?

Literatur:

Übersicht HOK Lesen/Schreiben

26.9.06

HOK Lesen: Suchen und Finden und Archivieren von digitalisierten Dokumenten

Gefunden beim Recherche-Blog: ein Hinweis auf das Zentrale Verzeichnis Digitalisierter Drucke (zvdd), das dabei helfen soll (und kann), die zahlreichen, über verschiedene Anbieter verstreuten Dokumente aus den zahlreichen Digitalisierungsprojekten aufzufinden. Mit dabei: Links zu Nestor, dem Kompetenznetzwerk für Langzeitarchivierung, und einem Artikel über die Problematik der Archivierung digitaler Daten. Das Problem wird noch verschärft, da neuerdings (auch ein Hinweis beim Recherche-Blog) in Deutschland auch Websites an die Nationalbibliothek abgeliefert werden müssen.

HOK Lesen: Suchen und Finden

HOK Lesen/Schreiben: Stuff & Stir

Ich nutze eine kleine Gelegenheit, den historischen mit dem Online-Teil bei der Historischen Online-Kompetenz zu verbinden. Via Beats Blog bin ich auf die Unterscheidung zwischen Stuff and Stir in der Online-Didaktik (=eLearning) gestossen. Stuff steht für vorgegebene, stoffbasierte, zuweilen auch hochkomplexe und interaktive programmierte eLearning-Szenarien (Lernumgebungen und Online-Kurse), die vor allem für individuelles Selbstlernen genutzt werden. Stir steht für informelle Umgebungen, in welchen die Teilnehmer/innen sich vor allem selber organisieren, miteinander kommunizieren und die Themen und Fragestellungen selber formulieren müssen, also gemeinschaftlich lernen.

Nun, vereinfacht gesagt geht es da um den Gegensatz von Konstruktivismus (=Stir), den die Geschichtsdidaktik seit Jahrzehnten als bevorzugten Weg zu historischem Wissen (oder zu historischen Kompetenzen) postuliert, und Instruktionismus (=Stuff), der im real existierenden Geschichtsunterricht noch immer vorherrscht.

Die Geschichtswissenschaft neigt zur Gewissheit, in der Hochschullehre herrsche ein (geschichtstheoretisch begründetes) konstruktivistisches Paradigma. Ich wage das etwas zu bezweifeln. Nur weil man den Studierenden (abgesehen von inhaltlich vollgestopften und haarscharf am Instruktionismus vorbeischrammenden Einführungskursen) kaum Anleitung bei der Erlernung des geschichtswissenschaftlichen Handwerks zu teil werden lässt, sollte man nicht auf konstruktivistische didaktische Ansätze schliessen.

Vielleicht lohnte es sich, da einmal zwei Sekunden länger darüber nachzudenken, ehe man die "Copy/Paste"-Mentalität der Studierenden beklagt (dazu mehr unter dem Stichwort "Aggregatoren").

Um auf Stuff and Stir zurückzukommen. Wo sind die Konzepte und Ideen, ICT/Neue Medien im Sinne des "Stir" auch in den Geschichtswissenschaften (in Lehre und Forschung) anzuwenden? Insbesondere die Komponente des "gemeinschaftlichen" (oder auch kollaborativen) Lernens ist ja meines Erachtens noch wenig ausgelotet worden. Darin fliessen die Kompetenz-Dimensionen des Lesens und des Schreibens in der Praxis zusammen. Eine erste (noch sehr luftig-abstrakte) Idee habe ich mit dem "hist.collaboratory" mal skizziert. (PrePrint zum Download).

Übersicht: HOK Lesen/Schreiben

25.9.06

HOK Lesen: Suchen und Finden: Open Access

Eine sehr gute Übersicht über Motive, Absichten und Risiken des Open Access-Ansatzes liefert Ulrich Herb in einem zweiteiligen Artikel in Telepolis. In "Schöne neue Welt des Open Access" stellt er zu Beginn die Unverträglichkeits-Stelle zwischen Neuen Meidum Internet und der Welt der etablierten Wissenschaftspublikationen fest: Wissenschafter publizieren in Journalen, Journale wollen Lizenzgebühren.
Da aber keine Hochschulbibliothek der Welt die Lizenzgebühren für alle wissenschaftlichen Journale entrichten kann, bleiben die Verheissungen des Internets unerfüllt und sein Potential für die wissenschaftliche Kommunikation liegt brach.
Ein Glück, gibt es den Journal Impact Factor (JIF): ein Faktor, der feststellt, wie oft in wissenschaftlichen Abhandlungen Artikel aus den verschiedenen Fach-Journalen zitiert werden. Je öfter ein Journal genannt wird - umso besser für's Image. Darum haben viele Verlage nichts dagegen, wenn die Autoren ihre Artikel auch noch umsonst im Netz zur Verfügung stellen: Ihre Journale (wo die Erstveröffentlichung stattfand, wie auch auf dem Gratisdokument vermerkt) gewinnen auch bei Zitaten, die sich auf die Gratisversionen beziehen, an JIF.

Im zweiten Artikel "Journale, Impact Factor, radikale Monopole und Karriere" bringt Herbig auf den Punkt, weshalb sich der Widerstand in der Scientific Community in Grenzen hält:
Wer als Wissenschaftler Karriere machen will, muss nicht nur Talent haben, sondern auch in den richtigen Journalen, die über einen hohen Journal Impact Factor (JIF) verfügen, publizieren. Andernfalls wird die Karriere scheitern, die Devise lautet: Publish or Perish.
So nährt sich das System selbst, nur langsam geht der Glaube an die "wichtigen Journale" verloren - damit bleiben aber Open Access-Publikationen Veröffentlichungen mit minderem Wert. Dabei wäre das nicht nur einer Erleichterung für den vereinfachten, kostenlosen Zugang zu Wissen, sondern auch für das Publizieren von wissenschaftlichen Inhalten, was besonders für Wissenschaftler der so genannten Dritten Welt Chancen böte, sich der Scientific Community anzuschliessen.

Passend dazu auch das Interview bei Golem.de mit Hal R. Varian, der das bestehende Urheberrecht für "skandalös ineffizient" hält, da es die Vorteile der schnellen weltweiten Verfügbarkeit von Informationen nicht nutzen lässt. Dies gilt insbesonder für so genannte "orphan works", also Werke, deren Urheber (oder Inhaber der Urheberrechte) sich nicht ausfindig machen lassen. Zur Rolle von Open Source (auch eine Variante des OpenAccess-Gedankens) meint Varian:
Google wäre beispielsweise ohne Open Source praktisch nicht denkbar. Google nutzt mehrere hunderttausend Server und es wäre ziemlich teuer, wenn Google für jeden neuen Server Lizenzgebühren abführen müsste. So kann Google Software wirklich ausreizen und erweitern, um sie an die eigenen Bedürfnisse anzupassen. Open Source ist dadurch ein Kernbestandteil des Geschäfts.
Dazu passt die Meldung bei Heise, wonach die Zeitungsverleger in Zukunft verhindern wollen, dass die Suchmaschinen ihre kostenlos zugänglichen Seiten abgrasen und indexieren können. Die Medien der letzten Jahrhunderte wehren sich gegen das Medium dieses Jahrhunderts (siehe noch einmal den Eintrag zu EPIC 2015) - gegen das Aggregieren und Syndizieren.

Übersicht: HOK Lesen: Suchen und Finden

HOK Reden: Reelle Virtualität?

Es gab einmal eine Zeit, da versuchten Computer, wie Menschen (oder besser) zu sein (Remember, HAL?) und in Computer-Games sollten die Spieler auf Szenarien stossen, die echter schienen als die Realität (Tron, Matrix, Neuroromancer, Otherland). Nun tun Menschen so, als wären sie Computer (ob PC oder Apple) oder spielen in der Realität, als wäre es ein Computer-Game ("Payphone Warriors"). Wie ist das eigentlich gemeint mit Ausdrücken wie "blended learning" - wie vermischt soll und kann die real-virtuelle Virtualirealität denn sein? Oder ist es nichts anderes als eine Inkorporation eines einstmals als "neu" geltenden Mediums in den bewährten Medienmix?

Übersicht: HOK Reden

21.9.06

Aus der Welt der Wikis: Citizendium = Wikipedia 2.0?

Tim Bartels fasst in seinem Wikipedistik-Blog die Meldungen zum geplanten Konkurrenz-Projekt Citizendium des ehemaligen Wikipedia-Mitbegründers Larry Sanger zusammen. Anspruchsvoller soll es sein und mit einem durchdachten System der Qualitätssicherung. Wir werden sehen. Stösst es, wie Bartels am Freitag vermutete, auf ein grosses Medienecho? Selber nachlesen bei Google News...

Übersicht: Aus der Welt der Wikis

14.9.06

HOK Lesen/Schreiben: Visualisierungen

Kollege Beat Döbeli interessiert sich für Visualisierungs-Techniken (und -Anwendungen) bei Lehr/Lernanwendungen von ICT. Was im Hinblick auf Geschichte eine nette Fussnote abzugeben scheint, ist meiner Ansicht nach ein Trend, der durch ICT noch verstärkt werden wird.

Es geht nicht nur darum, dass ständig neue Quellenbestände und sogar neue Quellengattungen dank ICT auftauchen. Dabei geht es nicht nur darum, dass neue Formen der Interaktion auch neue Forschungsfragen an neue Quellen ermöglichen. Dazu zähle ich etwa die Manipulation von Internet-Communities, bzw. Umgang oder Spiel mit neuen Medienformen, wie das Beispiel des Wirbels um lonelygirl15 auf YouToube aufzeigt, aber auch die Möglichkeiten von Google Earth, hochauflösendes Kartenmaterial mit unterschiedlichen Themen zu belegen, neustes Beispiel: Umweltdaten.

Die Digitalisierung erlaubt es zunehmend, Ton- und Bildquellen aber auch bewegte Bildern immer einfacher in Darstellungen zu integrieren. Wenn es mittlerweile fast jedermann möglich ist, auf eigene Faust Filmchen zu drehen (YouTube) oder einen Dokumentarfilm am Computer zu produzieren (LooseChange) - wie lange geht es, bis Studierende in Geschichte ihre Seminararbeiten als kurze Filmdokumentationen oder als Podcasts (genauer: MP3-Sprachdateien) abgeben? Diese Darstellungsformen mit den Anforderungen an Wissenschaftlichkeit zu verbinden, ist wohl eine ziemliche Herausforderung - aber ist es unmöglich oder undenkbar?

Verändert sich auch unser Zugang zu Informationen von text- zu bildbasierten Navigationssystemen? Eine solche Vermutung hatte ich schon bei der von Apple vorgestellten Backup-Software "TimeMachine" angestellt; die neue "Blätter"-Funktion in der Medienverwaltungs-Software iTunes (siehe Bild) bestärkt mich darin. Werden wir in Zukunft vermehrt auch online durch visualisierte Buchdeckel "blättern", während unten eine kurze Zusammenfassung und die Metadaten angezeit werden - und ein Knopf, mit dem wir den Download auslösen können?


Schliesslich haben Visualisierungsmöglichkeiten auch Auswirkungen auf die Art und Weise, wie komplexe Zusammenhänge dargestellt werden können. Die Suchmaschine Kartoo sei hier als Beispiel genannt. Aber gerade in Geschichte wird viel mit Schaubildern gearbeitet, um Strukturen und Prozesse darzustellen - Zeitleisten sind vielleicht die einfachste und grundlegendste Form.

Noch denken wir über Möglichkeiten nach, Texte kollaborativ zu erstellen. Doch wie weit ist der Schritt zum kollaborativen Erstellen von visuellen Darstellungen, der gemeinsamen Erstellungen von Zeitleisten, Grafiken, Filmen?

Übersicht: HOK Lesen/Schreiben

Aus der Welt der Wikis: Die vielen Einzelnen und das eine Kollektiv in Wikipedia

Internet-Autorität (wobei, was heisst das schon?) Jaron Lanier (Bio bei Wikipedia/Stanford University/Laniers Website) rechnet in seinem Essay „Digital Maoism“ ab mit dem Hype um den HiveMind, die Schwarmintelligenz, die ich hier (als "kollektive Intelligenz") und hier (als "Weisheit der Vielen") auch schon erwähnte und die immer wieder gerne zitiert wird im Zusammenhang mit allen möglichen Aspekten des „web 2.0“ und der Tätigkeiten der Internet-Communities.

Dabei plädiert Lanier für eine Kombination von kollektiver und individueller Intelligenz, die mit ihren jeweiligen Stärken ihre jeweiligen Schwächen auszugleichen vermögen. Genau genommen wehrt sich Lanier lediglich dagegen, der kollektiven Intelligenz eine alles lösende Macht zuzuschreiben und geisselt die Tendenz, mit dem Schlagwort von kollektiver Intelligenz Verantwortung zu vermeiden und den Wert des Individuums gering zu schätzen. Zugespitzt sieht er die Gefahr in der Vorstellung, das Internet selber werde durch die kollektive Intelligenz zu einem handelnden und denkenden Subjekt.
The beauty of the Internet is that it connects people. The value is in the other people. If we start to believe that the Internet itself is an entity that has something to say, we're devaluing those people and making ourselves into idiots.
Nun führte es zu weit, den ur-amerikanischen Topos des „freien Individuums“ in seiner digitalen Ausprägung und sein Erscheinen in der Argumentation von Lanier genauer zu analysieren. Doch bleibt bei mir eine gewisse Skepsis bei seiner Kritik an der kollektiven Intelligenz bestehen, die ja nun wirklich nicht einfach "Die Intelligenz des Internets", sondern durch das Zusammenwirken von Individuen entsteht.

Lanier wendet sich zwar nirgends explizit gegen Wikipedia, aber doch gegen die (seiner Ansicht nach) dahinter stehende Vorstellung davon, dass eine unpersönliche Gestalt namens "Kollektiv" eine Enzyklopädie bauen und irgendwie auch automatisch für seine Qualität bürgen werde. Stattdessen brauche es Individuen, welche die Qualität kontrollierten. Nun, was ist Wikipedia anderes als eine Ansammlung von Individuen, die jeweils ihre Interessen verfolgen und darüber kommunizieren? Und was machen die Nutzer und Administratoren (alles Individuen) anderes, als Qualität beständig zu überprüfen? Die Rolle der Einzelnen in der Wikipedia wurde bereits mehrfach (und zwar auch von Gründer Jimmy Wales selbst) skizziert: Dass sich nur wenige tausend Autoren, die sich mit dem Projekt identifizieren, mit einer Grosszahl an „Edits“ (Bearbeitungen von Texten) an der Entwicklung der Wikipedia beteiligten (Link muss ich noch nachliefern, zitiert wird Wales von Swartz im folgenden Link). Zugespitzt: einige wenige schreiben und entwickeln die Artikel, die grosse Masse korrigiert vereinzelte Kommafehler. Aaron Swartz hat neuerdings genau die umgekehrte These vertreten, die noch stärker die Paradoxie von Kollektiv und Individuum beleuchtet (Who writes Wikipedia? - Deutsche Übersetzung von Tim Bartels in Wikipedistik). Swartz vermutet (nach der Analyse einiger Artikel), dass Aussenseiter (oft anonyme Sachexperten) einen Sachverhalt einmal grundsätzlich schreiben, und diese dann in vielen Einzelschritten von der „Kerngruppe“ geordnet, geglättet und strukturiert wird. Der Blog "Social Software" erklärt das mit einem bekannten Modell: Autoren schreiben, Redaktoren überarbeiten. Ist das nun „Schwarmintelligenz“?

Letztlich geht es ja nicht um „Kollektiv“ und „Individuum“, sondern (meiner Ansicht nach) um Zufall gegen Planung und dann um Entscheidungs- und Gestaltungs-Macht. Wie die Debatte zwischen Exklusionisten und Inklusionisten zeigt, ist das Spannende (und zugleich Ärgerliche) an Wikipedia die Rolle des Zufalls bei der Auswahl und Gestaltung der Artikel. Die Exklusionisten wollen alle "seichten" Einträge, die nicht in ein richtiges, akzeptiertes Lexikon mit kanonisiertem, wissenschaftlichen Wissen gehören, aus Wikipedia streichen. Aber zuweilen gehören gerade die Artikel über die so genannten Trivia zu den besseren (weil persönlicheren); zum anderen machen gerade diese Artikel den interessante Mix von Wikipedia aus. Es gibt keinen „Masterplan“, der top-down die Wissensinhalte strukturiert, sondern die Inhalte entstehen bottom-up und chaotisch - wie das Internet als Ganzes ja auch. Und wie ich das verstehe, ist gerade das chaotische Entstehen eines

Deshalb gibt es in Wikipedia die Möglichkeit, aufgrund eines Masterplans Inhalte oder Autor/innen ein- oder auszuschliessen. Es gibt Regeln dafür, aber vor allem beständige Aushandlungsprozesse, die auf flexible Kriterien hindeuten; bis hin zum Risiko der Willkür. Aber ist das Kollektivismus? Vielleicht verstehe ich auch Laniers Vorwurf nicht ganz (oder das Prinzip der Schwarmintelligenz oder beides). Jedenfalls diskutieren in den einzelnen Artikeln und zu den jeweiligen Fragen zur Gestaltung der Wikipedia sehr konkrete einzelne Individuen. (Allerdings - dies ist Stärke und Schwäche zugleich – können diese auch anonym bleiben). Problematisch wird dies dort, wo statt Konsens verkappte Mehrheitsentscheide "durchgedrückt" werden - also derjenige oder diejenige Recht behält, der oder die den längeren Atem hat.

Kollektivistisch (um wieder auf diese Frage zurückzukommen) im Sinne der Schwarmintelligenz ist nach meiner Einschätzung die Annahme, dass früher oder später die Enzyklopädie als Ganzes durch wundersame Selbstheilkräfte von selbst auf ein akzeptables Niveau gelangen kann. Dies halte ich anders als Lanier nicht für naiv oder gefährlich, sondern einfach für wenig wahrscheinlich. Ich vermute, diese kollektive Intelligenz wird nicht spielen: Die Unterschiede werden bleiben (wenngleich vielleicht nicht so ausgeprägt) und sie sind stark von der zufälligen Konstellation abhängig, ob sich sachkompetente Individuen zusammenfinden, die ein Thema behandeln, das sich gut für enzyklopädische Abhandlung eignet, und sich auf einen Konsens bei der Darstellung des Themas einigen können. Gute Artikel leben vom Engagement von Menschen, die sich um diese guten Artikel kümmern - genauso lebt die Wikipedia vom Engagement einer Gruppe von Menschen, die sich (aus welchen Gründen auch immer) für diese Projekt einsetzen (siehe Aaron Swartz: Who runs Wikipedia? Ich habe mir die Frage auch schon gestellt, aber nicht so gut beantwortet.)

Und bei diesen Diskussionen geht es – natürlich - auch um Entscheidungsmacht. Diese ist bei Wikipedia (wie oft in solchen Community-basierten Projekten des web 2.0) nicht abgeleitet aus einer hierarchischen, auf (angenommener, oft auch behaupteter) Sachkompetenz beruhender Struktur (Abteilungs-, Forschungsleiter, Herausgeber, Lektor), sondern eher auf einer auf Engagement und Tätigkeitsausweis beruhender Meritokratie. Aber Konflikte wie jene von Bertrand Meyer, der noch vor wenigen Monaten Wikipedia lobte, und nun verzweifelt das Handtuch wirft, weil er sich mit seiner Auffassung eines Sachverhalts in einem spezifischen Artikel der Wikipedia nicht durchsetzen kann, gibt es auch in „Offline“-Situationen. Menschen haben verschiedene Ansichten, sie streiten darüber, am Schluss können sich gewisse Personen mit ihren Ansichten durchsetzen und – nein, auch in der Wissenschaft sind es nicht immer die wissenschaftlichen Argumente, die ausschlaggebend sind. In der Wikipedia wird der Konflikt immerhing transparent gemacht – er ist nachzulesen, jeder Interessierte kann sich selbst über den Gang der Argumentation ins Bild setzen. Ob das zum Verständnis des Konflikts bereits ausreicht, ist noch einmal eine andere Frage; ebenso, wer den Prozess überhautp analysieren will.

Jedenfalls scheint mir bei der Debatte um die „wissenschaftliche Gültigkeit“ von Wikipedia das Ergebnis (also die Inhalte) zu Unrecht mehr Beachtung zu finden als der Prozess, durch den die Inhalte entstehen und sich verändern. Hat nicht Jimmy Wales das Wiki-Prinzip treffend zusammengefasst
"The basic thing I think makes it work is turning from a model of permissions to a model of accountability. It isn't that you are allowed or not allowed to edit a certain thing; it's when you do it, that change is recorded, and if it's bad, people can see that."
Mir scheint, es fehlt noch die Gewohnheit im Umgang mit einem System, in dem ein Modell der "accountability", also der Verantwortlichkeit im Detail, angewendet wird.

Was mich mehr beschäftigt bei der "kollektiven Intelligenz" ist die Frage nach der "Aggregation" bereits vorhandenen Wissens, wie es Wikipedia als Community-basiertes Enzyklopädie-Projekt in Reinkultur darstellt: was wird eigentlich "neu" geschaffen? Und wer verdient mit dieser Aggregation sein Geld? Und was hat diese (neue?) "Kulturtechnik" der Aggregation für Auswirkungen auf das wissenschaftliche Arbeiten: hier ist ja das Zusammentragen des Forschungsstandes (=aggregieren) gang und gäbe. Zutreffend bemerkt Lanier:
Accuracy in a text is not enough. A desirable text is more than a collection of accurate references. It is also an expression of personality.
Das gilt bei historischen Texten besonders, auch Rosenzweig hat auf diesen Mangel bei den kollaborativ erstellten Texten der Wikipedia hingewiesen.

Literatur

12.9.06

HOK Lesen: Suchen und Finden: Ich bin nur eine Maschine!

Eine interessante Mitteilung bei Heise:
Die Suchmaschinen-Betreiber verlangen eine Änderung der gesetzlichen Grundlagen für ihre Dienstleistung, denn:
"Suchmaschinen werden in einem zunehmenden Maße mit der Entscheidung in Anspruch genommen, ob einzelner Inhalte im Internet auffindbar und zugänglich sein sollten oder nicht", monieren die Anbieter. Sie sähen sich dabei angesichts der sehr weitgehenden zivilrechtlichen (Störer-) Haftung dazu gezwungen, bereits von der Mitteilung einer rein behaupteten Rechtsverletzung einzelne Suchtreffer aus ihren Ergebnislisten zu löschen. Diese Situation machten sich "zahlreiche Akteure" durch bewusstes Abmahnen missliebiger Inhalte etwa von Konkurrenten zunutze. Die Praxis zeige, dass hinter den angeblichen Rechtsverstößen häufig seriöse und vollkommen legale Inhalte steckten.
Daraus folgt:
"Auf Verdacht" hin vorgenommene Maßnahmen von Suchmaschinen stellten auch einen "starken Eingriff" in die grundgesetzlich geschützten Informationsinteressen der Nutzer dar.
Mit anderen Worten: Manipulationen der Suchmaschinen-Indices (also der in Datenbanken abgelegten Verweise auf Websites, die als Ergebnisse bei Suchanfragen ausgewiesen werden) sind an der Tagesordnung.

Soweit so gut. Eine Änderung der Rechtslage weg von einer "vorauseilenden Gehorsams-Zensur" wäre wohl wünschenswert; obwohl unklar bleibt, wie gross der Schaden sein könnte, der durch die Verzögerungen entsteht, wenn illegale Inhalte erst nachträglich, auf Antrag und womöglich mit richterlicher Anordnung gelöscht werden können.

Erstaunlich finde ich die Argumentation der Suchmaschinen-Betreiber. Suchmaschinen böten...
(...) wie Zugangs- oder Hostprovider keinen eigenen Content an, sondern machten Inhalte Dritter auf "Milliarden unterschiedlicher und sich permanent verändernder Webseiten" ausfindig, indexierten sie und verschafften dem Nutzer Zugang dazu.
"Suchmaschinen im eigentlichen Sinne sind keine redaktionell gestalteten Link-Kataloge", heißt es in dem Positionspapier, das AOL, Google, Lycos, MSN, T-Info, T-Online und Yahoo gemeinsam verfasst haben. Die unüberschaubare Anzahl an Informationen im Internet könne auch gar nicht auf der Basis persönlicher Prüfung und Zusammenstellung der Suchergebnisse strukturiert werden, wehren sich die Anbieter vor einer Haftung für die von ihnen gelisteten Online-Materialien. Nur technische und "voll automatisierte Suchverfahren" könnten zum Einsatz kommen, weshalb die Betreiber sich auch "zwangsläufig" als "rein technische Infrastrukturdienstleister" sehen. (Hervorhebungen durch jh)
Da kann ich nur sagen: "Ich bin nur eine Maschine!" Aber warum bloss verkaufen die Suchmaschinen massenweise Werbung auf ihren Seiten? Hier wird doch ein klarer Mehrwert angeboten, der nicht nur mit "rein technischer Infrastruktur" zu umschreiben ist. Maschinell ist ja lediglich die Ausführung des intellektuellen Ansatzes, die Ergebnisse zu sammeln, auszuwerten, zu gewichten und sortiert auszugeben (Stichwort "PageRank").

Hier machen es sich die Suchmaschinen-Betreiber meiner Ansicht nach zu einfach. Sie sind mehr als reine technische Dienstleister, sondern zentrale Aggregatoren von Inhalten und recht eigentliche "Gatekeeper". Dass keine inhaltlichen, sondern "nur" ökonomische Interessen handlungsleitend sind, mag ein Trost sein. Die Suchmaschinenbetreiber wollen keine Inhalte ausschliessen, weil es nicht im Interesse des Nutzer liegt und folglich dem Geschäft schadet - das klingt einleuchtend. Aber wie können wir sicher sein, dass sie auch wirklich keine Inhalte ausschliessen oder sonstwie manipulieren? Und: ist es wirklich in jedem Fall im Interesse der Nutzer/innen, dass Inhalte nicht ausgeschlossen werden? Oder gibt es hier nicht eher doch konkurrierende Interessen?

Übersicht HOK Lesen: Suchen und Finden

HOK Lesen: Quellen: Anmerkungen zu Google Books

Erste Erfahrungen mit Google Books, das etliche Bücher als Scans im PDF-Format anbietet - nicht wenige darunter auch kostenlos. Hardy Green berichtet in Business Week von seinen Erfahrungen mit dem Download (brach wegen der Grösse der Datei ab) und dem Lesen (er entdeckte Anmerkungen wohl aus Studentenhand aus der Zeit der Jahrhundertwende im Buch) mit seinem Google Book, einer Ausgabe von Charles Dickens' A Tale of Two Cities aus dem Jahr 1908 (die ich zwar bei Google gefunden habe, aber nicht als Full-View-Datei, die frei heruntergeladen werden kann).

Ist Google hier nicht eine Gefahr für jene Verlage, die von der Neuausgabe von Klassikern leben?
Peter Gale Nelson, assistant director of Brown University's creative writing program, also questions the economic impact. "It may be less expensive to buy a printed version than to pay the cost of toner and paper." The Google mechanism, he added, "could be most useful for a book that's hard to find, one where this is the only way to get it."
Derweil weisen Verantwortliche des Bereichs Distributed Proofreaders des Gutenberg Projects (wo urheberrechtsfreie Klassiker von Freiwilligen zunächst eingetippt, mittlerweile aber auch eingescannt werden) auf die Notwendigkeit von Qualitätssicherungsmassnahmen hin (gefunden bei O'Reilly-Radar). Nicht selten geht die eine oder andere Seite beim Massen-Scannen à la Google verloren - oder Bildlegenden werden abgeschnitten. Das kann im Einzelfall ausserordentlich ärgerlich sein. Doch ein kontrollierendes Gegenlesen (Proof-Reading) gibt es bei Google nicht - zu teuer. Eine Gelegenheit, über die Vor- und Nachteile von so genannten "Laien-Projekten" nachzudenken, wo Freiwillige gemeinsam Inhalte erarbeiten.

Übersicht: HOK Lesen: Quellen

11.9.06

HOK Lesen: Quellen: Komplott- und Verschwörungstheorien (IV)

Wo wir schon dabei sind, noch zwei ergänzende Nachträge: Florian Rötzer berichtet in Telepolis von der Suspendierung des Professors Steven Jones an der Brigham Young University in Provo, Utah, der sich für die These stark macht, die Twin Towers und das daneben stehende Gebäude WTC 7 seien eher durch gezielte Sprengungen zum Einsturz gebracht worden. Diese Aussagen des gläubigen Physikers gefallen der Mormonen-Universität nicht ("Die Diskussion über die Verschwörungstheorien zum 11.9. erreicht die akademische Welt"). Er wird mit folgender Aussage zitiert:
We don't believe that 19 hijackers and a few others in a cave in Afghanistan pulled this off acting alone.
Das kommt mir doch bekannt vor...

Dazu gesellt sich ein weiterer Telepolis-Artikel von Haiko Lietz (Inside Job), der die wachsende Zahl von US-Bürger/innen thematisiert, die 9/11 für ein Werk der US-Regierung (=Inside Job) halten.
In New York City ist es schwerer, jemanden zu finden, der nicht von einem Inside Job überzeugt ist, als umgekehrt.
Lietz bezieht sich auch auf die Argumentation von Prof. Jones und die von ihm ins Leben gerufene Bewegung "Scholars for 9/11 Truth".

Wer mit fünf Jahren Abstand noch einmal die Stimmung am Tag der Anschläge einfangen will: CNN wiederholt ungeschnitten die eigene Berichterstattung dieses Tages.

Übersicht: HOK Lesen: Quellen

10.9.06

HOK Lesen: Quellen: Urheberrecht behindert den Unterricht (mit neuen Medien)

Der Einfachheit halber zitiere ich hier ausführlich eine Meldung von irights.info (statt sie in eigenen Worten zusammenzufassen - soviel zu Shake and Paste).
Eine Studie des Berkman Center for Internet and Society, einem Institut der Universität Harvard, untersucht die Rolle des US-Copyrights bei der Entwicklung und Nutzung neuartiger Methoden und Technologien im Unterricht. Fazit: Derartige Initiativen werden durch das Copyright nicht gefördert, sondern behindert.

Dieses Fazit ist deshalb so bedeutend, weil in der US-Verfassung, die die Grundlage für das Gesetz bildet, festgelegt ist, dass der Kongress dafür sorgen muss, dass das Copyright den wissenschaftlichen Fortschritt fördert. (...)

Auch in Deutschland gibt es deutliche Kritik an den Regelungen des Urheberrechts mit Bezug auf Bildung und Unterricht. Sowohl das Urheberrechtsbündnis für Bildung und Wissenschaft, als auch der Bundesrat und die Organisation „Schulen ans Netz“ haben mehrfach das bestehende Gesetz kritisiert. Sie befürchten, dass sich die Situation für Bildung und Lehre erheblich verschlechtern wird, wenn die Bundesregierung die bisher vorgelegten Vorschläge zur Reform des Urheberrechts umsetzt.
Zur Situation in der Schweiz ist mir nichts bekannt (Hinweise gerne bei den Kommentaren erwünscht!).

Übersicht: HOK Lesen: Quellen

HOK Lesen: Quellen: Komplott- und Verschwörungstheorien (III)

Mathias Bröckers bringt in seinem Plädoyer "9/11 revisited" die Argumentations-Techniken bei Verschwörungstheorien auf den Punkt, indem er sie selber anwendet:
  1. Man spitze die Diskussion darüber, was wann von wem aus welchem Grund getan oder unterlassen wurde auf zwei Aussagen zu.
  2. Man widerlege die eine Aussage, indem man möglichst viele Widersprüche in der Daten/Quellenlage aufspürt und darlegt.
  3. Man kommt zum logischen Schluss, dass die andere Aussage (ungeprüft) wahr sein müsse...
Bei Bröckers (der schon wenige Tage nach den Anschlägen die Widersprüche in der offiziellen Version der US-Regierung in einer Serie von Artikeln sehr detailliert dargestellt hat - The WTC Conspiracy) klingt das so:
Eigentlich ist doch alles ganz einfach mit dem 11.September 2001, es gibt nur zwei Möglichkeiten:
a) Eine kriminelle Bande, angeleitet von ihrem Boss in einer afghanischen Höhle, bringt mit Teppichmessern vier Passagierjets unter ihre Kontrolle, fliegt mit diesen Jets komplizierte Luftmanöver, überlistet dabei die gesamte, hochentwickelte Luftabwehr über den bestgeschützten Gebäuden der Welt, bringt sie zielgenau zum Einsturz und tötet bei diesem spektakulären Terroranschlag fast 3.000 Menschen.
b) Eine kriminelle Bande, die verdeckt innerhalb der US-Regierungs- und Geheimdienstbehörden operiert, ausgestattet sowohl mit den notwendigen Mitteln, Übungen, bei denen die Entführung von Passagierjets simuliert wird, real werden zu lassen, als auch mit den Motiven und Möglichkeiten, von den Anschlägen politisch und finanziell zu profitieren, benutzt Bande A bei ihrem Vorhaben als Sündenbock.
(...)
Ich neigte vom ersten Tag zur der Seite der Ungläubigen zu und habe die Gründe für diese Haltung in der TP-Serie The WTC-Conspiracy ausführlich dargelegt. Seitdem ist mir nichts bekannt geworden, das diese Skepsis abmildern oder gar beseitigen konnte. Im Gegenteil bin ich heute mehr denn je davon überzeugt, dass die Anschläge nur als "inside job" durchgeführt werden konnten.


Nun bezeichnet Bröckers seinen Text (selbstironisch?) als "Bekenntnisse eines Verschwörungstheoretikers" - doch seine Zuspitzung auf zwei Varianten hat etwas Nötigendes. Immerhin ist ja auch als dritte Variante denkbar, dass die US-Regierung von einem geplanten Anschlag wusste, aber nichts dagegen unternahm und mögliche Opfer billigend in Kauf nahm, weil ein solcher Anschlag sich bestens instrumentalisieren liess. Oder es war ein noch viel komplizierteres Zusammentreffen von unterschiedlichen Interessen, Manipulationen, Unfähigkeit, Zufällen, dass sich leider nicht in zwei Zeilen mit klaren Rollenverteilungen beschreiben lässt...

Wo Bröckers hingegen meiner Ansicht Recht hat, dass nur ein steter Druck der Öffentlichkeit, die sich mit der offiziellen Lesart nicht zufrieden gibt, dazu führen wird, dass die Ereignisse um 9/11 jemals neu aufgerollt und untersucht werden ( - wobei offen bleiben muss, ob dann ein "wahreres" Ergebnis daraus resultiert). Beim Aufbauen dieses öffentlichen Drucks, und beim Erörtern möglicher alternativer Lesarten ist das Web eine wesentliche Komponente. Letztlich kann nur die transparente (und langwierige) Darstellung der vielen Widersprüchlichkeiten mitsamt ihren jeweiligen unterschiedlichen Erklärungsversuchen die gegenseitige Abkanzelung verschiedener Deutungszusammenhänge als "Verschwörungstheorien" durchbrechen.

Übersicht: HOK Lesen: Quellen

9.9.06

HOK Lesen: Quellen: Komplott- und Verschwörungstheorien (II)

Aus der Menge der medialen Aufmerksamkeit rund um den 5. Jahrestag von 9/11 zwei Hinweise, die auch eine Verbindung zum Film "Loose Change" aufweisen, den ich letzthin thematisierte.

Zum einen fasst Spiegel Online in einer Übersicht die Entgegnungen zusammen, welche die Behauptungen in den Verschwörungstheorien zu entkräften und zu widerlegen versuchen. Dabei werden viele Fragen behandelt, welche der Film "Loose Change" (aber auch andere Theorien) aufwerfen. Inwiefern diese Fragen in diesen "offiziellen" Versionen überzeugender beantwortet werden, muss jedem selbst überlassen werden. Es zeigt sich meiner Ansicht nach, dass Attentate komplexe, chaotische und schwer zu rekonstruierende Prozesse sind, was Planung, Durchführung und Auswirkungen betrifft. Da bleiben (mehr noch als ohnehin bei jeder Erschliessung historischer Ereignisse und Entwicklungen) Ungereimtheiten und Widersprüche offen, die sich als Ansatzpunkte für andere Sichtweisen und Interpretationen anbieten.

In der Kulturbeilage der Basler Zeitung vom 9.9.2006 äussert sich der Historiker Daniele Ganser zu einigen Aspekten der Verschwörungstheorien rund um 9/11. So handelt es sich bei den Anschlägen von 9/11 auf jeden Fall um eine Verschwörung: in der offiziellen Lesart um jene der islamistischen Attentäter. Folglich hat auch die US-Regierung eine "Verschwörungstheorie" - diese ist allenfalls plausibler als andere. Zu Loose Change meint Ganser:
Am Auffälligsten ist dabei der Einfluss der neuen Medien. "Loose Change" ist auf einem Laptop gemacht worden, mit guter Software, und steht jetzt gratis im Internet. Das wäre rein technisch vor zehn Jahren noch nicht mögliche gewesen. Der Informationskrieg wird heute von allen Gruppen geführt: Osma Bin Laden schickt Videobotschaften - ob echt oder gefälscht. Rumsfeld meldet sich - mit Wahrheit oder Lügen. Und jetzt kommt auch noch die Internet-Community. Sie bringt Ansatz mit diesm Film auf den Punkt, ist gekonnt geschnitten, unterlegt mit gutem Sound und entwickelt so eine starke Kommunikationskraft. "Loose Change" hat sehr, sehr viele Leute davon überzeugt, dass Bush gelogen hat. Ob "Loose Change" historisch gültig ist, ist eine andere Sache.
Auf die Frage nach seiner Kritik an Loose Change meint Ganser:
Dass probiert wird, eine komplett kohärente, neue Geschichte zu erzählen. Dies scheint mir nicht der stärkste Teil des Films. Viel stärker ist er da, wo die Macher sagen: Schaut euch die Bilder vom Pentagon an. Es ist nicht ausgeschlossen, dass da tatsächlich ein Flugzeug hineingeflogen ist, aber dann soll die US-Regierung doch einfach die Bilder der Überwachungskameras veröffentlichen, auf denen das Flugzeug klar zu erkennen wäre. (Basler Zeitung, 9.9.2006, Kulturbeilage, S. 5)
Eine andere offene Frage ist jene nach den Ursachen des Einsturzes von WTC 7, einem 170 Meter hohen Gebäude neben den Twin Towers, dass nicht von Flugzeugen getroffen wurde.

Ganser beschäftigt sich vor allem mit Fragen der Sicherheitspolitik. Er hat einen Beitrag verfasst zum Buch "9/11 and American Empire: Intellectuals Speak Out" von David Ray Griffin und Peter Dale Scott verfasst und letztes Jahr im International Security Network der ETH einen Artikel zu einer Spezialfrage von 9/11 verfasst.

Übersicht: HOK Lesen: Quellen

8.9.06

HOK Lesen: Suchen und Finden: Google News II

Bei Google passiert so viel, dass ich nur mit Sammeleinträgen hinterherkomme (und auch nur mit Hinweisen auf die für mich relevantesten Aspekte):
  • Google News bietet nun auch Suchen im Archiv verschiedener Zeitungen, etwa des Wall Street Journal, der New York Times oder der Washington Post. Recherche-Blog zeigt das am Beispiel von Jimmy Carter. Auch die Darstellunge einer Zeitleiste (allerdings nicht in der in einem früheren Eintrag besprochenen grafischen Form) ist möglich.
  • Ein weiterer Hinweis via Recherche-Blog: Google Scholar bietet bei der Suche nach wissenschaftlichen Artikeln auch die Option, nach "ähnlichen/verwandten" Einträgen zu suchen ("related articles").
  • Nochmals via Recherche-Blog: Hinweise zum Thema Klickbetrug, das ich hier auch schon thematisiert habe. Interessante Links finden sich auch in den Kommentaren.
  • Google Books bietet nun erste Bücher zum (Gratis-)-Download an, zumeist ältere Bücher aus US-amerikanischen Bibliotheken, auf die keine urheberrechtlichen Ansprüche mehr bestehen.
  • Google führt den "Image Labeler" ein: ein Spiel, bei welchem die Spieler Bilder aus dem Fundus der Google-Datenbank mit treffenden Stichworten versehen. Absicht: Google verbessert die Stichwort-Suche nach Bildern. Kommentar von Heise: "Google Image Labeler führt das so genannte Folksonomy-Prinzip des Web 2.0 auf perfide Weise weiter. Bei anderen Projekten, bei denen die Benutzer eine Datenbasis gemeinschaftlich indexieren, haben sie direkten Nutzen davon. Bei sozialen Bookmarking-Diensten zum Beispiel finden sie im gemeinsamen Datenbestand ähnliche Seiten, wenn sie ihre Bookmarks mit Labeln versehen. Beim Image Labeler "profitieren" sie nur in Form des Punktestands; die Nutzzung der von fleißigen Spielern angelegten Bilderindexes bleibt Google vorbehalten" (vgl. auch meinen früheren Eintrag zu "Tagging").
Übersicht: HOK Lesen Suchen und Finden

Aus der Welt der Wikis: Wikiversity

Eine (noch vage) Vorstellung, wozu die Wiki-Technologie und die Wikimedia-Idee in Geschichtswissenschaften und Geschichtsvermittlung auch noch genutzt werden könnte (ausser für eine Online-Lexikon wie Wikipedia, dass ja explizit nicht für die Darstellung von Forschungsergebnissen konzipiert ist, siehe "was Wikipedia nicht ist"), vermittelt das neue, noch im Beta-Stadium befindliche Projekt der "Wikiversity". Die beiden vorhandenen Projekte im Fachbereich Geschichte zeigen auch gleich die Bandbreite auf: vom Projekt mit universitärem Anspruch bis zur engagierten, methodisch durchaus kontrollierten Schülerarbeit.
Die Frage, die sich mir hierbei stellt: Sollte dieser Ansatz zu einer attraktiven Plattform für Historiker/innen werden (immerhin erhält man hier mehr Resonanz und Feedback als etwa auf "versteckten" Wikis wie jenem von hist.net), wie lange nehmen die Universitäten dann diesen "Brain-Drain" tatenlos hin? Wann werden die ersten uni-eigenen Wiki-Plattformen zur öffentlichen Darstellung und Entwicklung von Forschungsprojekten eingerichtet? (Soviel ich weiss, existieren solche noch nicht).

Übersicht: Aus der Welt der Wikis

2.9.06

Aus der Welt der Wikis: Wikipedia und die Wissenschaft

Ich lese gerade einen Artikel in Telepolis von Karin Wehn und Martin Welker mit dem Titel "Weisheit der Massen", der (so mein erster Eindruck) leider die Chance vergibt, erhellende Aussagen über die Rolle des Wikipedia-Modells für wissenschaftliches Arbeiten zu liefern. Zum einen bleiben die Überlegungen an der (oft Wikipedia-Einträgen vorgeworfenen) Oberfläche allgemeiner Erkenntnisse, dadurch schleichen sich unpräzise Aussagen in die Argumentation ein, die zu falschen Schlüssen führt.

So wird der Artikel gleich eingeführt mit einem Zitat von Norbert Bolz aus einem Interview im Magazin Spiegel im Zusammenhang mit Wikipedia:
Da entsteht ein weltweites Laienwissen, das in Konkurrenz zum Expertenwissen tritt.
Wikipedia als "Laienwissen" zu bezeichnen, zielt aber an der Realität vorbei und verstellt den Blick auf die eigentlichen Probleme dieses Ansatzes der Texterstellung. Es handelt sich um ehrenamtliches Wissen, das zuweilen auch von ausgewiesenen Experten stammen kann, bzw. kontrolliert wird (ausser man lässt nur Enzyklopädie-Fachredaktoren als Experten gelten). Gerade in den naturwissenschaftlichen Bereichen sind dem Laienwissen Grenzen gesetzt, es ist nicht die Regel, dass Hobby-Physiker versuchen, die Relativitätstheorie zu erklären. Viel aussagekräftiger ist die Frage nach der Selbstzuschreibungs-Möglichkeiten zu Wissenbereichen, bzw. den dazugehörigen gesellschaftlichen Legitimationen. In der Geschichte fühlen sich viele "nicht-akademische" Historiker berufen, ihre Ansichten darzutun - dies ist aber nicht ein Phänomen, das allein bei Wikipedia auftritt. Die Ehrenamtlichkeit, also die Frage, mit wieviel unbezahlter Arbeit die Autor/innen jeweils in Wikipedia Einträge erstellen und bearbeiten können und vor allem - warum sie das tun, aufgrund welcher Motivation - wäre weitaus interessanter, als jene, ob hier Profis am Werk sind, deren Arbeit einem Produktionsplan folgt und von einer Herausgeberschaft kontrolliert wird.

Stattdessen steuern Wehn und Welker bei der Frage der Autoren in spekulatives Fahrwasser:
Leider sind die Motive derjenigen, die zu einem Artikel beitragen, unbekannt. Die Verfasser können im Negativfall politische oder kommerzielle Altruisten, Spaßvögel oder Vandalen sein. Manche Verfasser überschätzen ihre fachliche Kompetenz und liefern stattdessen Spekulationen, Gerüchte, Hörensagen oder unkorrekte Information. Freiwillige Beiträge repräsentieren in hohem Maße die Interessen und das Wissen einer selbsterwählten Gruppe von Mitwirkenden. Es gibt keine systematische Instanz (wie bei klassischen Enzyklopädien etwa ausgebildete Redakteure) und keinen systematischen Wissensorganisationsplan, der sicherstellt, dass offensichtlich wichtige Themen adäquat behandelt werden.
Hier reproduzieren Wehn und Welker nur gängige Klischees anstatt anhand präzis formulierter Hypothesen Fragen zu stellen und Möglichkeiten zu erwägen, wie Antworten darauf gefunden werden könnten. Es gibt (beispielsweise) Instanzen der Qualitätssicherung bei Wikipedia (Administratoren) - diese sind durchaus der Befragung würdig, doch dafür müsste man diese Instanzen einmal zu analysieren versuchen. Und die offensichtlich wichtigen Themen bedürfen wohl nicht eines systematischen Wissensorganisationsplanes, um ausgewählt zu werden - sonst wären sie ja eben nicht offensichtlich, sondern nur einem eingeweihten Kreis von Wissenden in ihrer Wichtigkeit ersichtlich.

Es folgt die Feststellung, dass Wikipedia gerne im wissenschaftlichen Alltag als Referenz genutzt wird, und Seminar- und Hausarbeiten von per Copy/Paste eingefügten Wikipedia-Artikeln strotzen. (Was hierbei ausgeblendet bleibt, ist der Umstand, dass die Nutzungsrechte an den Inhalten dank der General Public License von Wikipedia ganz anders gelagert sind als bei herkömmlichen Publikationen. Aber auch wenn Copy/Paste von Wikipedia-Wissen bei entsprechenden Nachweisen urheberrechtlich erlaubt ist, sagt dies noch nichts über die wissenschaftliche Redlichkeit aus). Wehn und Welker stellen die Frage, ob Wikipedia für die wissenschaftliche Nutzung etwas taugt - und verweisen darauf, dass Wikipedia-Gründer Jimmy Wales selber vom Zitieren aus Wikipedia abrät.

Dann folgt ein Vergleich von Wikipedia mit herkömmlichen Enzyklopädien. Welche Funktion Enzyklopädien als Gattung in der wissenschaftlichen Arbeit spielen können oder sollen (bzw. die Grundaussage, der auch Wales folgt, wonach Enzyklopädien ganz generell als Nachschlagewerke und nicht als zitierfähige Literatur gelten können, egal ob sie online oder gedruckt erscheinen, von einer Fachredaktion oder einer Community erstellt werden), beschäftigt Wehn und Welker nicht - sie interessieren sich nur dafür, ob Wikipedia "gleich gut" wie herkömmliche Lexika sind.

Dabei kommen die gängigen Argumente: Die Artikel können zu jedem Zeitpunkt beliebig schlecht sein - Qualität ist nicht garantiert. Und vor allem Studienanfänger können dies noch nicht erkennen. Daher müsse die sach- und fachgerechte Nutzung von Wikipedia gelernt - und gelehrt werden.

Doch bei diesem (naheliegenden) Analyse-Ergebnis fallen einige Ungenauigkeiten auf. So behaupten Wehn und Welker:
Die Stärke von Wikipedia, das kollaborative Arbeiten an einem Gegenstand, ist streng wissenschaftlich gesehen eine Schwäche, da der Text eine Gemeinschaftsarbeit darstellt, oftmals keinem Autor eindeutig zuzuordnen ist und zudem meist nur einen Zwischenstand der Arbeiten darstellt.
Diese Aussage suggeriert, dass gemeinschaftlich erstellte Texte von mehr als einem Autor nicht wissenschaftlich seien (das würde auf eine ganze Reihe naturwissenschaftlicher Studien zutreffen - übrigens ist auch Text von Wehn und Welker eine Gemeinschaftsarbeit...), bzw. sie verwischt den Kernpunkt der Unwissenschaftlichkeit (der fehlenden Nachprüfbarkeit): dass anonymes und pseudonymes Mitarbeiten möglich ist - ein wesentlicher Grund für den Erfolg der Wikipedia, weil dadurch die Hemmschwelle zur Beteiligung niedrig genug war, um die kritische Masse an Beteiligten für dieses Projekt zu generieren.

Die Problematik der ständigen Veränderungen der Artikel wird noch weiter problematisiert:
Zitierte Versionen eines Artikels können schon wenige Stunden später Korrekturen oder andere Verbesserungen enthalten; folgt man später dem Link des von einem wissenschaftlichen Autor rezipierten und zitierten Artikels, hat man damit die aktuellste Version verpasst.
Hier ist Wehn und Welker die schon länger existierende Möglichkeit in Wikipedia entgangen, auf Archiv-Versionen von Artikeln zu verweisen: jede Fassung eines Wikipedia-Beitrages hat eine eigene URL und somit kann sogar besser als bei anderen Verweisen auf Internet-Ressourcen genau jene Version nachgewiesen werden, mit der man gearbeitet hat. (Zur Präzisierung beachte die Kommentare am Ende dieses Eintrages).

Noch einmal an der Problematik vorbei argumentieren Wehn und Welker bei der Frage des wissenschaftlichen Anspruchs von Wikipedia-Beiträgen:
Insbesondere bei den Punkten Unvoreingenommenheit, Nachvollziehbarkeit, Nachprüfbarkeit und Quellentransparenz hapert es leider bei Wikipedia. Die Wikimedia-Stiftung ist sich dessen bewusst und versucht mit Anleitungen zum Schreiben eines guten Artikels oder mit Workshops, die Qualität im obigen Sinne zu verbessern. Da meist Laien die Wikipedia-Texte erstellt haben, ist der Alltagscharakter der Texte evident.
Zum einen wird hier der Gesamtheit der Wikipedia-Texte und Wikipedia-Autor/innen Laienhaftigkeit unterstellt. Hier täte etwas Differenzierung Not. Zum anderen wird unterschlagen, dass auch Einträge in herkömmlichen Enzyklopädien "Alltagscharakter" haben: es geht ja oft eben darum, Laien (als Rezipienten) gewisse Sachverhalte (nicht immer wissenschaftliche notabene) zu vermitteln. Und schliesslich kann auch in herkömmlichen Enzyklopädien den Ansprüchen der Nachvollziehbarkeit, der Nachprüfbarkeit und der Quellentransparenz nicht immer in gleicher Weise nachgekommen werden, in der Regel aus Platzgründen. Hier haben die Leser/innen dem Herausgeber zu vertrauen. Online-Enzyklopädien, die sogar noch Kommentare und Diskussionen erlauben (und Ergänzungen) wären hier eigentlich im Vorteil.

Die Überlegungen von Wehn und Welker sind geprägt von der (nicht belegten) Vorstellung, dass es sich bei Wikipedia um ein "Laienprojekt" handelt und dass sich dies aufgrund der Rahmenbedingungen des Projekts (gemeinschaftliches, anonymes Schreiben ohne Möglichkeiten, sich als Autor/in zu profilieren, also Verantwortung zu übernehmen und zugeschrieben zu erhalten) auch nicht ändern werde. Mit dieser Einstellung, so fürchte ich, kommt man dem Potential und der Bedeutung von Wikipedia nicht auf die Spur. hierfür braucht es noch mehr untersuchungen des Phänomens Wikipedia, wie sie teilweise von Wehn und Welker zitiert wurden (Andreas Brändle, Viégas/Wattenberg/Dave), wie sie aber (dies ist auf Wikipedia selber dokumentiert) noch weit aus ausführlicher schon vorhanden und im Entstehen begriffen ist

Übersicht: Aus der Welt der Wikis

HOK Lesen: Quellen: Vom Vertrauen in Bilder

Es führte hier zu weit, die Bedeutung von Bildern in den Geschichtswissenschaften und in der Geschichtsdidaktik mehr als nur anzudeuten. Der Bericht "Seeing is deceiving" bei C-net über die Implikationen, welche die verbesserten Bilbearbeitungsmöglichkeiten bei der neusten Generateion von Digital-Kameras nach sich ziehen, lässt mich jedenfalls auch im Zusammenhang mit der historischen Online-Kompetenz daran denken, dass wir im Web nicht nur mit Text-Quellen (und der Frage nach dem Umgang mit ihnen) konfrontiert werden.
"People in the legal world are now concerned about whether photos can be accepted as evidence anymore, especially when you can alter the scene as you click the shutter," said Peter Southwick, associate professor and director of the photojournalism program at Boston University.
Nun ist die Manipulation von Fotografien nicht erst im digitalen Zeitalter möglich geworden (man denke an das berühmte Bild der Lenin-Rede ohne Trotzki oder andere Beispiele in der Ausstellung X für U - Bilder die lügen). Und gerade die Aufregung um "nachgebesserte" Bilder aus dem Libanon-Krieg hat dies wieder aufgeworfen. Doch die neuste Entwicklung macht die Veränderung des Bildes gleich beim oder unmittelbar nach dem Entstehen besonders einfach. Und wirft grundsätzliche Fragen auf, welchen "Wahrheitsgehalt" wir Bildern zusprechen. Denn ob unmittelbar nach der Aufnahme des Bild verändert und ein Vergleich mit dem "Original" (wie bis anhin in der Diskussion um manipulierte Bilder) nicht mehr möglich ist: Gerade im Libanon-Krieg kam ja auch die einfachste Form der Manipulation von Bildern zur Geltung: gestellte Fotografien.

Letztlich (und damit gelangen wir wieder zu den theoretischen Implikationen, die ich zu Beginn nur andeuten wollte) sind Bilder immer eine "Manipulation" der Wirklichkeit, nie deren wahrheitsgetreue Abbilder. Aber wenn wir ein Bild sehen, scheinen wir in der Regel diese Einsicht zu vergessen.

Und noch etwas: die Blogosphäre scheint gerade bei Bildern ein Flair für detektivische Kleinarbeit zu hegen. Die manipulierten Bilder im Libanon-Krieg waren ebenso eine Entdeckung von Bloggern wie die geschönten Irak-Fotos eines US-Politikers. Dabei werden die Blogger selber zur Partei und schnell entstehen auch Verbindungen zu allerlei Verschwörungstheorien unterschiedlichster Ausprägung.

Übersicht: HOK Lesen: Quellen

HOK Lesen: Suchen und Finden: Das unsichtbare Web (Nachtrag)

Wer sich nicht durch den englischen, fachwissenschaftlichen Text von Landowski und Mayr zum unsichtbaren Web mühen mag, hat auch die Möglichkeit, sich das Feature "Was die Suchmaschine nicht findet" des Deutschlandradios (dr) zu Gemüte zu führen (schriftlich oder als Audio-Datei). Zitat:
Google hat in vielen Köpfen die Illusion festgesetzt, mit der simplen Eingabe eines Stichwortes könne man die Weisheit der Welt aus dem Internet saugen. Das unsichtbare Netz zeigt, dass die Dinge komplizierter liegen, auch die beste Suchsoftware kann nicht Erfahrungswissen und Fingerspitzengefühl bei der Recherche ersetzen. Letztlich ist die elektronische Welt des Internets, ob sichtbar oder unsichtbar, auch nicht so viel anders als die wirkliche Welt: Sich darin zu orientieren ist eine Lebensaufgabe.
Übersicht: HOK Lesen: Suchen und Finden

HOK Lesen: Suchen und Finden: Meta-Suchmaschine Kartoo visualisiert Ergebnisse

Die Meta-Suchmaschien Kartoo fasst, wie andere Suchmaschinen auch, die gefundenen Seiten zu einer Abfrage in Gruppen zusammen. Kartoo zeigt diese "Begriffsgruppen" unter dem verbindenden ergänzenden Stichwort in einem Ordner, ähnlich dem Finder/Explorer auf dem Desktop. Ausserdem zeigt Kartoo diese so genannten Such-Cluster auch als "Begriffs-Karte" mit Verbindungen zwischen den Clustern und einer Darstellungsgrösse, welche die Relevanz dieses Clusters für die Suchabfrage darstellen soll. Anbei ist das Ergebnis für die Suche nach "Historische Online Kompetenz" zu sehen (Klick führt zu Kartoo).


Ich finde vor allem das Konzept interessante (weniger die konkrete Nutzung): es zeigt die Verlagerung zu neuen Formen, wie in Zukunft die Navigation im Web stärker visuell geprägt sein wird - ähnlich wie die Backup-Software Time-Machine.
(via Rechercheblog)

Übersicht: HOK Lesen: Suchen und Finden

1.9.06

Aus der Welt der Wikis: "Stabile Versionen" bei Wikipedia

Jimmy Wales kündigte es bei der Wikimania bereits an, und C-net spitzte es letzthin mit einem leicht ironischen Titel zu ("Can german engineering fix wikipedia?"): Bei der deutschen Wikipedia soll bald eine "Zwei-Klassen-Gesellschaft" für die Beiträger (und die Autor/innen) entstehen. Es gibt dann stabile (=geprüfte) Versionen, die nur von ausgewählten Personen noch veränder werden können, und "gesichtete", also frei veränderbare Versionen. Was diese Unterteilung für Konsequenzen hat und wie die Einführung von statten gehen wird beschreibt eine gute Übersicht bei Wikipedistik, die auch mit verschiedenen falschen Vorstellungen und ungenauen Aussagen zu diesem neuen Ansatzes bei Wikipedia aufräumt.

Übersicht: Aus der Welt der Wikis