25.11.05

HOK: Lesen - Vom Suchen und Finden IX: Mainstream

Da wir es gerade von Google hatten (wer spricht zur Zeit nicht von Google, wenn es um "Digitales Wissen" und dergleichen geht?): Google hat mit der Ankündigung, die Bestände berühmter Bibliotheken (vor allem in den USA) in globo einzuscannen und zur Suche bereitzustellen (Google Book Search), einiges an Widerstand und Skepsis geerntet, zuletzt an der "Semantics" in Wien.

Dabei geht es ja nicht nur um die Kommerzialisierung des Wissenszugangs (den Google zwar bestreitet, aber bitte: Google ist ein kommerzielles Unternehmen - keine gemeinnützige Institution), sondern auch um die unvermeidliche Fokussierung auf bereits mit Aufmerksamkeit bedachter Informationen und Wissensbestände. Oder mit den Worten von Max Kaiser, Koordinator für Forschungs- und Entwicklungsprojekte bei der österreichischen Nationalbibliothek: "Die Leute werden aber davon ausgehen, dass alles digital zu finden ist. Was nicht aufgenommen wird, wird komplett in Vergessenheit geraten." Die Aussage: "Was bei Google nicht zu finden ist, existiert nicht", gilt dann nicht nur für Web-Inhalte, sondern auch für Bücher.

Dieser Trend zum Mainstream stellt auch Christiane Floyd bei der Digitalisierung der historischen Recherche-Rahmenbedingungen fest: Viele Datenbestände werden überhaupt erst in feste Formen gebracht, wenn sie für die Abfrage mittels Internet aufbereitet werden, bzw. diese Strukturen werden einer breiten Öffentlichkeit sichtbar. Dafür setzt sich aber auch ein Trend durch, der bei der Strukturierung der Daten zu einem Mainstream führt. Die Daten werden auf ähnliche Weise strukturiert.

Dies gilt in einem sich selbst verstärkenden Prozesse wohl auch für die Inhalte. Auch hier bietet Google ein schönes Beispiel: Letzte Woche lancierte Google das Projekt Google Base. Dabei handelt es sich um eine Datenbankinfrastruktur, die von jedermann (und jeder Frau) benutzt werden kann. Wer seine CD-Sammlung der Welt mitteilen will oder Autos oder Backwaren verkaufen will, kann die Daten dorthin hochladen. Aber auch Gemeinde-Bibliotheken oder andere Institutionen können ihre Daten dort kostengünstig in strukturierter Form publizieren.

Da die Struktur vorgegeben ist, führt dies unweigerlich zu einer verkappten Standardisierung. Auch das Tagging hat einen Mainstream-Effekt, wie Google als Suchmaschine ja auch: Bekanntes wird bekannter. Die Nischen werden immer weniger beachtet und verschwinden - ausser sie bezahlen für die Aufmerksamkeit in Form einer Google-Anzeige. Beim Tagging ist die Strukturierung relativ weich und wird durch die User gesteuert, bei Google Base kann man das nicht behaupten.

Mag die Struktur von Wissensbeständen (wie Floyd erklärt) durch eine Publikation im Internet "veräussert", bzw. expliziert und damit erkennbar werden: nicht immer erschliessen sich die Kriterien, die zur Auswahl geführt haben. Google Scholar, das letztes Jahr eingeführt wurde, hat wie die Google Print bzw. Google Books bei den Bibliotheken für viel Aufsehen gesorgt. Doch wie genau die Inhalte (zumeist Fachzeitschriften) ausgewählt werden, ist nirgends dokumentiert. Auch hier lässt eine erste Analyse den Schluss zu, es handle sich um einen Trend zum Mainstream - zu den gut betuchten grossen Verlagen. Es entbehrt nicht einer gewissen Ironie, dass die Bibliotheken nun die Fachverlage gerade aufgrund der Erfahrung mit Google Scholar unter Druck setzen, da die Fachzeitschriften-Abonnemente so horrend sind.

Literatur:
Floyd, Christiane: "Esse est percipi. To Be is to Be Accessed.", in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 57-71

22.11.05

HOK: Lesen oder Schreiben? From Wreader to Wiki...

Krameritsch spricht in seinem Artikel "Geschichte(n) im Hypertext" von "Wreadern", das sind Reader, die zugleich durch ihr Leseverhalten zu Writern werden, einer Vermischung von Lesen und Schreiben (der Begriff wurde von George Landow erstmals verwendet: "Technology transforms readers into reader-authors or 'wreaders'", Landow 1994, 14). Diese Vermischung entsteht etwa beim Lesen von Hypertexten, da jedes Individuum anderen Hyperlinks in anderen Reihungen folgt und damit einen eigenen Hypertext zusammenstellt. Dieses Zusammenstellen entspricht den Suchpfaden, die ich bei den Informationsräumen beschrieben habe.

Doch wo genau hört dann der Akt des Lesens auf und wo beginnt jender des Schreibens? Beim "Wreading" handelt es sich ja nur um eine Teil-Interaktion. Die User wählen aus bestehenden Möglichkeiten aus, sie bestimmt lediglich die Reihenfolge und die Übergänge der Informationseinheiten. Wirklich interaktiv wird das Geschehen erst, wenn die Leserinnen und Leser das Gelesene verändern oder mitgestalten können.

Hier setzt die Idee von Wiki ein, jene technische Lösung, die es einer Gruppe von Menschen erlaubt, gemeinsam mit wenig Aufwand Texte auf dem Internet zu erstellen und zu bearbeiten (es gibt auch andere Lösungen, von Foren mit ausgefeilten Texteditoren-Funktionen, netzwerkfähigen, kollaborativen Textverarbeitungen (wie SubEthaEdit oder MoonEdit) bis hin zu Web-Applikationen wie "Writely"). Dabei gilt es zwischen verschiedenen Interaktionsformen (Kommunikation, Kooperation und Kollaboration) und verschiedenen Textformen (Lauftexte und Hypertexte) zu unterscheiden.

Literatur
  • Krameritsch, Jakob: "Geschichte(n) im Hypertext. Von Prinzen, DJs und Dramaturgen", in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 33-56
  • Landow, George P. (Hg.): Hyper text theory, Baltimore (Md.) [etc.]: The Johns Hopkins University Press 1994
Übersicht: HOK Lesen/Schreiben

HOK: Lesen - Vom Suchen und Finden VIII: Informationsräume, Pfade und Navigation

Das World Wide Web verfügt über Hypertext-Funktionalität, das ist eine wichtige Eigenschaft des Mediums. Jedoch nutzen nicht alle Autorinnen und Autoren diese Funktionalität in gleichem Masse. Und gerade bei der Informationskompetenz stellt sich hier die Frage: Handelt es sich hier um digital bereitgestellte Bücher, in denen man Volltext-Suchen durchführen kann, oder um neue Konstrukte: um Netzwerke oder Räume? (Stahl)

Wenn wir die Metapher des Raumes nutzen stellen sich gleich weitere Fragen: Wie orientieren wir uns in diesem Informationsraum? Und wie unterscheiden sich digitale (WWW-) Informationsräume von analogen Informationsräumen (also Bibliotheken beispielsweise)? (Krüger)

Hypertextuelle Verknüpfungen und fehlende Strukturierungen lassen beim Suchen im Internet sehr unterschiedliche Suchpfade entstehen. Die User müssen diese im Gedächtnis gleichsam "virtuell" abspeichern. Der PC zeigt ja immer nur gerade die aktuellste Sicht von Informationen an. Den Pfad hat der Browser zwar gespeichert, aber für die Interpretation des gerade sichtbaren Inhalts und für die Entscheidung, was mit diesem Inhalt gemacht werden soll, bzw. welcher Hyperlink verfolgt werden soll, bleibt den Usern überlassen.

Die Fähigkeiten zur Navigation und zur Orientierung über den aktuellen "Ort" im World Wide Web sind zentral für den Erfolg bei der Informationssuche (Edwards/Hardman). Weil die Orientierung "virtuell" erfolgt, sind Metapher so prägend (Stahl) und lehnen sich oft an bekannten Repräsentationsformen an, vor allem am Buch (Hodel). Das gilt auch für die so genannte Bread-Crumb-Navigation, die Brotkrümel-Navigation, die in Anlehnung an - sagen wir - Orientierungskompetenz von Hänsel und Gretel jende Navigation meint, die die User immer einen Schritt zurückgehen lässt (Zurück-Knopf des Browser). Einzelne Websites bieten diese Navigation auch automatisch generiert an - allerdings nur, solange die User auf der gleichen Website unterwegs sind (wieder die räumliche Metapher...).

Interessant wären die Pfade, die beim Durchstreifen (um der Metapher gerecht zu werden) der Informationsräume entstehen. Hier sind erst wenige Untersuchungen vorgenommen worden und es gibt auch kaum Vorschläge, wie diese Pfade aufgezeichnet, reflektiert oder anderen zur Verfügung gestellt werden könnten. Denn die Pfade sind eigentlich kleine individuelle schöpferische Akte, bei denen kurzlebige virtuelle Sinneinheiten hergestellt werden.

Literatur
  • Hodel, Jan: Wie kommen wir dahin? Das Internet verlangt nach neuen Fähigkeiten bei der Aufnahme von Informationen. Verfasst für die Online-Publikation im Bereich „Reflexionen“ der Website www.pastperfect.at., 15.9. 2003. (PDF)
  • Edwards, Deborah M., Hardman, Lynda: "Lost in hyperspace: cognitive mapping and navigation in a hypertext environment", in: McAleese, Ray (Hg.): Hypertext: theory into practice, Edinburgh: 1999, S. 90-105
  • Krüger, Stefanie: "Die Erschliessung digitaler und analoger Suchräume. Anforderungen an heuristische Verfahren", in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 91-105
  • Stahl, Elmar: Is a hypertext a book or a space? The impact of different introductory metaphors on hypertext construction, in: Computers & Education Volume 44 , Issue 2 (February 2005) S. 115-133. (Abstract)

Aus der Welt der Blogs IV: der beste Blog der Welt

Nun ist es amtlich, eine Jury hat im Rahmen des Wettbewerbs "Best of Blog" den besten Blog der Welt ausgezeichnet. Titel "Mehr Respekt, ich bin Deine Mutter!" (Mas respeto, que soy tu madre!)
  • Inhalt: eine fiktive Fortsetzungeschichte aus einer argentinischen Familie.
  • Die Jury: "Eine gelungene fiktionale Mischung aus Telenovela und Komödie".
  • Der Autor Hernan Casciari: "Ich warte sehnsüchtig darauf, dass die Leute endlich die kreative Kraft der Weblogs erkennen und etwas Neues schaffen. Derzeit schreiben 80 Prozent der Blogger ausschliesslich über sich oder über Weblogs. Unter Bloggern ist die Nabelschau leider immer noch weit verbreitet."

Tja, trifft für diesen meinen Blog-Eintrag leider auch zu, ich nehme es zur Kenntnis...

21.11.05

HOK: Lesen - Vom Suchen und Finden VII: Informationskompetenz

Die historische Online-Kompetenz ist ja definiert als Schnittmenge zwischen historischer Kompetenz und der Medienkompetenz (dabei besonders auf die Neuen Medien, bzw. ICT, und besonders auf das Internet bezogen).

Allerdings ist zu fragen, ob nicht die Informationskompetenz, wie sie die ACRL als Standards definiert hat, den Bereich "Lesen/ Analyse" der Historischen Online-Kompetenz besser zu erfassen mag (Mehr Links am Ende des Eintrag). Wer über Informationskompetenz verfügt, ist in der Lage,
  1. Art und Umfang der benötigten Informationen zu bestimmen,
  2. sich effizienten und effektiven Zugang zu den benötigten Informationen zu verschaffen,
  3. Informationen und seine Quellen kritisch zu evaluieren und die ausgewählten Informationen in sein Wissen und sein Wertsystem zu integrieren,
  4. Informationen effektiv zu nutzen um ein bestimmtes Ziel zu erreichen und
  5. die ökonomischen, rechtlichen und sozialen Streitfragen zu kennen und zu verstehen, die mit der Nutzung von Informationen zusammenhängen und Zugang und die gefundenen Informationen in einer ethischen und legalen Weise zu nutzen.
Die Medienkompetenz wäre in diesem Falle umfassender: Sie beschreibt dann auch die Fähigkeiten, die Medien und ihre Eigenschaften zu kennen und auch zur Produktion von Inhalten zu nutzen. Jakob Krameritsch schreibt daher von "Medienkreativität".
Offen bleibt die Frage, ob Navigations- und Orientierungsfähigkeit Teil der Informationskompetenz ist oder nicht. In den Standards tauchen die Begriffe jedenfalls nicht auf.

Literatur/Links:

20.11.05

HOK: Lesen - Vom Suchen und Finden VI: Google-Sucht und Google-Syndrom

Die Schweizer Wochenzeitung "Weltwoche" nimmt in der Ausgabe 46 vom 17.11.2005 reisserisch ein Thema auf, dass bereits Anfang Oktober in der Zeit abgehandelt worden war. "Suchtmaschine Google" heisst es da auf der Titelseite, "Fluch und Segen der Wissensmacht", während der Artikel selber mit "World Wide War" betitelt wird. So tragen die Journalisten (allesamt selbst gute Kunden von Google) zur dauernden Bedeutungshysterie um diese Suchmaschine bei, die nach eigenem Bekunden die Informationen dieser Welt organisieren und für alle verfügbar und nutzbar machen will.

Google ist vor allem ein Beispiel für ein gelungenes Geschäftsmodell: einen zentralen, nützlichen Dienst umsonst und in hoher Qualität anbieten, diesen laufend mit Zusatzdienstleistungen ausbauen und das ganze dezent mit Werbung finanzieren, die nur im "Erfolgsfall" von den Werbe-Kunden bezahlt werden muss. Alles möglich dank Algorithmen, die clever Worte in aufgefundenen Texten sowie die Informationen über die Fundorte miteinander vergleichen können. Google bietet bei Suchanfragen Ergebnislisten, die schnell zum Ziel führen: zur "eigentlichen Information" (was immer das gerade ist) ebenso wie zum Produkt, dass gut zu dieser Information passen könnte. Wer nach "Ferien Kinder Adelboden" sucht, erhält eine nette Werbung zu Kinderhotels.de.

Was bringt das nun für die wissenschaftliche Arbeit, oder konkreter: für die Historische Online-Kompetenz. Fluch oder Segen? Zunächst einmal: Google ist ein beeindruckendes Werkzeug. Dennoch: Peter Haber (in vom Nutzen und Nachteil des Internets für die Geschichtswissenschaften") spricht zurecht von einem "Google-Syndrom", weil sich gleich mehrere Anzeichen eines Misstandes häufen. Die wichtigsten:
  • Google verwischt die "Genealogie des Wissens": Jede Information wirkt in der geordneten Auflistung gleich und gleichwertig. Doch Wissen entsteht nie wertfrei und unter jeweils unterschiedlichen Voraussetzungen und mit verschiedenen Interessen.
  • Die Suche mit Google ist einfach - zu einfach? Jeder User findet zu jeder Frage irgendetwas. Aber ist es das, was er oder sie suchte? Das Googlesyndrom befördert nicht nur den Hang zum Copy/Paste-Verhalten, sondern vermindert auch die Motivation, alternative Suchstrategien zu erproben und über die Art und Weise von Recherche-Techniken im Internet nachzudenken.

Literatur:
Haber, Peter: "“Google-Syndrom”. Phantasmagorien des historischen Allwissens im World Wide Web", in: ders., Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 73-89

18.11.05

HOK: Lesen - Vom Suchen und Finden V: Serendipity (einmal anders)

Serendipity? Ein Prinzip, benannt nach einer indischen Geschichte aus dem 13. Jahrhundert über den (fiktiven) König von Serendip, der seine drei Söhne nach erstklassiger Ausbildung in die Welt schickte, um ihre Bildung zu vervollkommnen. Auf der Reise entdecken sie am Wegesrand Dinge, die sie nicht gesucht haben, vermögen diese Eindrücke aber in sinnvoller Weise miteinander zu verbinden und dadurch zu neuen Erkenntnissen zu gelangen. Die Geschichte wurde von Horace Walpole im 18. Jahrhundert nach England und damit nach Europa gebracht, der auch den Kunstbegriff Serendipity prägte. Er bedeutet eine Entdeckung oder eine Erkenntnis, zu der man durch Zufall oder Glück gelangt. Als Paradebeispiel wird immer wieder die Entdeckung des Penizillins oder der Post-It-Notizzettel herangezogen.

Auch für die Nutzung des Internets wird Serendipity als Konzept angewandt: als Synonym für "Surfen" und als Gegenstück zum Begriff "Lost in Hyperspace". Danach ist das ziel- und orientierungslose Herumklicken im Internet nicht unbedingt Zeitverschwendung und Überforderung, sondern kann auch zu unerwarteten Erkenntnissen führen (vgl. dazu auch Krameritsch, Jakob: "Geschichte(n) im Hypertext"). Das Unerwartete kann man in Google nicht suchen, aber durchaus dort finden.

Dies ist auch gleich die Überleitung zum Anlass dieses Eintrags: ein Artikel von Peter Sennhauser in der aktuellsten Weltwoche über einen freien Tag, dessen Planung, Durchführung und Verarbeitung dank Google-Technologie zum Erfolg wird (leider nicht frei zugänglich, daher hier eine Kurzzusammenfassung): Wetterbericht, Mail, Suche nach interessanten Ausflugzielen, Karte mit Wegbeschreibung aufrufen, unterwegs nach Tankstellen suchen, anschliessend Videos und Bücher durchstöbern, um sich über Surfen (! - allerdings im Sinne von Wellenreiten auf dem Offline-Meer) kundig zu machen. Ich machte mir den Spass, mir den gleichen Tag in einer Google-freien Welt vorzustellen: Aus dem Fenster schauen, auf der alten Landkarte nach interessanten Plätzen suchen, den Kollegen anrufen und nach dem Geheimtipp fragen, von dem er letzthin geschwärmt hatte, sich mit dem Kollegen zu einem gemeinsamen Ausflug verabreden, viel zu spät losfahren, verzweifelt eine Tankstelle suchen, riesigen Umwege fahren, auf dem Rückweg zum ursprünglich angepeilten Ausflugziel in einer Kneipe landen, dort eine hübsche Frau kennenlernen, die ein Buch liest, den Titel notieren und am nächsten Tag, nach einem Kinobesuch am abend (ohne hübsche Frau), das Buch in einer Buchhandlung bestellen, das Buch lesen, und beim Lesen einen genialen Einfall für ein Problem bei einem Projekt haben. Serendipity - etwas anders.

Update: Man kann auch andere, historisch verbriefte Serendipity-Such/Find-Beispiele anführen. Zufällig (Serendipity) bin ich über ein ausgezeichnetes Radio-Feature des Deutschlandfunks zu Alfred Wegener, dem "Erfinder" der Plattentektonik (und damit auch der Kontinentaldrift, also dem Auseinandertreiben der Kontinente), gestossen. Das Feature schildert nicht nur die Ablehnung, die dem Meteorologen und Polarforscher von seiten der etablierten Geologie entgegenschulg, sondern auch den Moment, als Wegener auf die Idee dieser neuen Theorie kam: "Alfred Wegener stösst in der Marburger Universitätsbibliothek zufällig auf einen Aufsatz, der Fossilien auflistet, die beiderseits des Atlantiks - in Südamerika und in Afrika - identisch sind. Endlose Stunden verbringt er in der Bibliothek, sucht nach ähnlichen Aufsätzen." Diese Art des Erkenntnisgewinns und des Nachforschens auf eine Eingebung hin wirkt auch heute, im Zeitalter der Internet-Recherche, sehr aktuell.

Literatur:
Krameritsch, Jakob: "Geschichte(n) im Hypertext. Von Prinzen, DJs und Dramaturgen", in: Haber, Peter, Epple, Angelika (Hg.): Vom Nutzen und Nachteil des Internet für die historische Erkenntnis. Version 1.0, Zürich: Chronos 2005 (Geschichte und Informatik, Vol. 15/2004), S. 33-56

16.11.05

HOK - Lesen: Vom Suchen und Finden IV: Tagging

Eigentlich kam das schon bei meinem Eintrag "Suchen und Finden III: Communities!" vor, das Tagging - indirekt jedenfalls. Ein wichtiges Element der gemeinschaftlichen Kommunikation ist die Gliederung der Inhalte auf einer gemeinsamen Plattform. Beim (mittlerweile von Yahoo gekauften) gemeinschaftlichen Bilderdienst Flickr (und in der Folge auch bei der Bookmark-Sharing-Plattform Delicious und sogar beim Blog-Suchdienst Technorati) wurde ein anderer Weg gewählt als bei Web-Plattformen, die redaktionell betreute und vorgebene Gliederungsstrukturen aufweisen. Bei letzterem müssen die Anwender immer dann, wenn sie neue Inhalte eingeben wollen, entscheiden, zu welcher vorgebenen Kategorie ihr Thema am besten passt. Stattdessen kommt eine Technik namens Tagging zum Einsatz, der sich ein längerer Artikel bei C-NET widmet.

Beim Tagging können die Nutzerinnen und Nutzer selber entscheiden, mit welchen Stichworten (Tags) sie ihre Inhalte (Bilder, Wort- oder Audiobeiträge u.a.) versehen wollen. Damit können Tags definiert werden, die nur für eine Gruppe von NutzerInnen von Interesse ist ("BeachtripNov05"), es ermöglicht aber auch eine Flexibilität bei der Beschlagwortung, die unterschiedliche Wahrnehmungen oder Diskussionszusammenhänge berücksichtigt. Als Beispiel sei hier etwa die unterschiedliche Benennung von Atom- oder Kernkraftwerken genannt, die vom politischen Kontext des Sprechers, der Sprecherin abhängt.

Das hat für die Erstellung und für die Suche von Inhalten entscheidende Bedeutung. Die Wissensbestände organisieren sich nicht mehr nach einem strikten, geordneten Muster, sondern vergleichsweise chaotisch und entlang den Interessen der Teilnehmerinnen und Teilnehmer. Wie kann da denn etwas gefunden werden? Die Nutzerinnen und Nutzer brauchen ja verschiedene Stichworte für gleiche oder gleiche Stichworte für verschiedene Sachverhalte.

Dennoch erhoffen sich Beobachter genauere Suchmöglichkeiten. Es macht einen Unterschied, ob Wörtern in einem Volltext gesucht wird, die mit komplizierten Algorithmen gewichtet werden, um eine Rangliste zu erstellen, oder ob anhand von Urhebern vergebenen Stichworten nach Dokumenten gesucht wird. Hier bestehen ganz offensichtlich konvergierende Elemente zu Metadaten, wie sie seit Jahren in Bibliotheks-Kreisen bereits für die Erfassung von Webinhalten beschrieben und gefordert wurden (vgl. dazu das 2002 ausgelaufene Projekt Meta-Lib). Auch das Konzept des semantischen Webs von Tim Berners-Lee geht in diese Richtung der Datenstrukturierung, die eine inhaltlich sinnvolle Verknüpfung von Dokumenten ermöglichen soll, die sogar automatisch von intelligenten Programmen vorgenommen werden können soll.

Doch das Tagging ist weniger ein organisatorischer oder technischer, sondern eher ein sozialer Ansatz der Datenstrukturierung. So entstand daraus der Kunstbegriff der "Folksonomy" (der englische Eintrag bei Wikipedia ist etwas ausführlicher als der deutsche). Denn auch andere Nutzerinnen und Nutzer können an eine Information einen Tag anfügen und so einerseits zur besseren, breiteren Beschlagwortung beitragen oder für sich selber eigene Gruppen von interessierenden Inhalten zusammenfügen. Das Tagging ist somit weitaus flexibler einsetzbar als Strukturierungselement als bestehende, logische Gliederungssysteme.

Noch einmal: wie sollen diese wilden, unkontrollierten Tags dazu beitragen, genauer und schneller Informationen zu finden? Auch wenn man nicht genau das Stichwort trifft, so gibt es doch über Doppeleintragungen (zum Beispiel ein Artikel, der sowohl mit Atom- als auch mit Kernkraft "getaggt" wird), die Verbindungen zwischen Stichworten herstellen können. Kombiniert mit herkömmlichen Volltext-Suchmöglichkeiten gibt es hier durchaus Potential, die Suchgenauigkeit zu erhöhen. (Vergleiche dazu auch die die Dissertation Metadaten-Management für kooperative Anwendungen von Ulrike Steffens, die versucht, integrative Metadatenmodelle und flexible Algorithmen zu kombinieren, um trotz unterschiedlicher Voraussetzungen bei den Beteiligten kollaborative Arbeitsformen im Internet zu ermöglichen.)

12.11.05

HOK - Lesen: Orientierungshilfen hoch 2

Mit der Absicht, die Nutzerinnen und Nutzer bei der Orientierung im Datenmeer (oder Datendschungel oder Informationsdickicht oder Informationsflut) des unstrukturierten Internets zu unterstützen, sind Verzeichnisse und Suchmaschinen angetreten. Bald gab es soviele verschiedene Verzeichnisse und Suchmaschinen, dass es Orientierungshilfen für die Orientierungshilfen gab: Suchmaschinen-Guides, Meta-Suchmaschinen, Linklisten von Verzeichnissen.

Solche Orientierungshilfen gibt es auch für die Geschichtswissenschaften, nennen wir nur mal clio-online und H-Soz-Kult. Bald gab es auch für Geschichtswissenschaften besondere Online-Einführungen und -lehrgänge in diese Orientierungshilfen. Nun sind es bald soviele, dass es nötig scheint, eine Übersicht zu den Einführungen in die Orientierungshilfen zusammen zu stellen. Eine erste, oberflächliche Recherche bringt gleich vier, sehr unterschiedliche Angebote zum Vorschein:


Diese Einführungen und Leitfaden bieten nicht nur Handhabe zur Orientierung im Netz im Sinne gezielter Suchstrategien, sondern auch Aussagen und Anleitungen zur Quellenkritik. Auf dieses Stichwort werde ich wohl noch einige Male zurückkommen.

9.11.05

Historische Online-Kompetenz: Lesen - Quellen II: "Digitales Vergessen"

Die Rezension des Sammelbands "Digitales Gedächtnis - Archivierung und die Arbeit der Historiker der Zukunft" (Chronos Verlag 2004, basierend auf einer Tagung des Schweizer Vereins Geschichte und Informatik von 2003), die ich kürzlich bei der Online-Zeitschrift Sehepunkte fand, machte mich wieder aufmerksam auf jene Seite beim Suchen, Finden und Auswerten von Informationen, auf welche die Online-Kompetenz nicht so viel Einfluss hat: welche Daten denn auch tatsächlich (noch) auffindbar sind. Während die Suchmaschinen Mühe haben, alle aktuellen Inhalte des Webs zu verzeichnen, und Forscher seit längerem keinen ernsthaften Versuch mehr gemacht haben, das Verhältnis von in Suchmaschinen erfassten und tatsächlich vorhandenen Informationen auch nur zu schätzen (ein letzter Versuch stammt schon aus der Internet-Steinzeit: von 1998 durch Steve Lawrence und C. Lee Giles), ist kaum etwas bekannt über die Zahl von Informationen die jede Sekunde still und heimlich aus dem Internet verschwinden.

Das Projekt "archive.org" macht sich zur Aufgabe, dass gesamte Internet zu archivieren. Doch stellt sich auch mir, wie der Rezensentin von Digitales Gedächtnis dei Frage: Was ist mit dem Vergessen? Stefanie Krüger: "Ausser den Hinweisen auf die unterschiedlichen Gedächtnisformen und der Notwendigkeit eines "organisierten Vergessens" als einer Kernkompetenz der Archivfachleute (68), scheint der Blick bei den anderen Autoren eher nur Null oder Eins zu kennen, den einen oder anderen Zustand: entweder den Supergau des Datenverlustes beim Plattencrash oder die Gigantomanie einer möglichst vollständigen Sammlung jedweder Information."

Immerhin sollte man das Vergessen nicht einfach dem Versagen von Festplatten und dem Konkursverfahren von Internet-Providern überlassen. Doch welcher Provider ist denn schon gefeit vor Übernahmen und Reorganisationen für die nächsten, sagen wir, 40 Jahre? Wer sich überdies ärgert über den Umstand, dass alle "Gratis"-Hosting-Angebote mit Einschränkungen verbunden sind, wenn man grössere Dateien (etwa bei Podcasts) ins Netz stellen will, sollte sich mal "Ourmedia.org" anschauen. Hierbei handelt es sich um ein Non-Profit-Projekt, dass den Nutzern unlimitierte Datenspeicher-Platz auf Lebenszeit zusagt. Zu schön um wahr zu sein? Das Projekt scheint seriös, es arbeitet mit archive.org zusammen und erhielt bislang (etwa von CNET) gute Kritiken.

6.11.05

Historische Online-Kompetenz: Lesen - Vom Suchen und Finden III: Communities!

Eine interessante Tendenz beim Suchen ist die Tendenz, die Effekte von Wikipedia, Blogger-Community, Verzeichnisdiensten und Suchmaschinen zu kombinieren. So bietet der Dienst delicious ein sogenanntes "social bookmarking": wer sich anmeldet, kann seine bookmarks statt auf dem eigenen rechner auf einem zentralen Server speichern und verwalten (das ist noch nicht neu, da gab es früher auch schon Ansätze in dieser Richtung, die sich nie richtig durchsetzen konnten) - und, wenn er/sie will (und dazu wird man aufgefordert) auch den anderen Nutzerinnen und Nutzern von delicious zugänglich machen. Das ergibt interessante Cluster von Bookmarks, die sich thematisch allerdings noch in bestimmten Bereichen ballen: Blogs und Internet stehen da im Zentrum. Aber ist schon interessant, zu sehen, welche Websites sich viele, sehr viele oder eben kaum jemand (aber doch immerhin jemand) hier zwischengelagert haben.

Die Entwickler von delicious denken natürlich gleich weiter und haben (mit einigem Medien-Getöse) einen "Community-Browser" vorgestellt (bzw. dessen Entwicklung). Das Ding heisst Flock und kann direkt auf Blog-Server zugreifen, Bookmarks auf Delicious verwalten und Bilder auf flickr.com laden (auch so eine Mischung: hier allerdings zwischen Weblog und Fotogalerie) und ist ansonsten im Kern ein Firefox-Browser; also ein OpenSource-Projekt.

Eine etwas anspruchsvollere Art des Bookmark-Sharings verfolgt das Projekt "Piggy-Bank": Hier werden die Webpages nicht nur mit Metadaten erfasst, sondern auch gleich inhaltlich so umgeformt (im Prinzip Inhalt von Layout getrennt), dass eine Verbindung mit anderen Webpages möglich ist: so können Adress-Daten von Restaurants (Webpage A) auf einer Stadtkarte (Webpage B) abgebildet werden. Hier sind auch weitere Kombinationen denkbar - sofern die Seiten in einer Struktur verfasst sind, mit der die Inhalte extrahiert und weiterverarbeite werden können.