Category Archives: Suchmaschinen

Google Alarm

Schöne Sache: Ein neuer Firefox-Addon, der Alarm schlägt, wenn Daten an Google gesendet werden. Infos von der Seite:

The Google Alarm Firefox addon visually & audibly alerts you when your personal information is being sent to Google servers.

Even outside Gmail and YouTube you are constantly sending information to Google through their vast network of tracking bugs: Google Analytics, Google AdSense, YouTube embeds, API calls.. all of this data be used to monitor & track your personal web browsing habits.

Google Alarm shows notifications, plays sound effects and keeps running stats about the % of websites you’ve visit with Google bugs present. Stay alert – install Google Alarm today.

Download hier: Google Alarm

Google Alarm from Jamie Dubs on Vimeo.

Links zur Vorlesung

Vorgestern habe ich im Rahmen der Ringvorlesung “Kontrolle und Selbtskontrolle in Bildungszusammenhängen” einen Vortrag in Hamburg gehalten. (Hier sind alle Videos der sehr interessanten Reihe versammelt) Hier nun noch die Links und Referenzen, falls jemand etwas nachlesen möchte:

“Data, Information, Knowledge, and Wisdom” by Gene Bellinger, Durval Castro, Anthony Mills
http://www.systems-thinking.org/dikw/dikw.htm

Markanteile Suchmaschinen
http://www.webhits.de (Web-Barometer)

OCLC Studie “College Students’ Perceptions of Libraries and Information Resources” [PDF]
http://www.oclc.org/reports/pdfs/studentperceptions.pdf

British Library Studie “Information Behaviour of the Researcher of the Future” [PDF]
http://www.bl.uk/news/pdf/googlegen.pdf

Nicholas Carr “Is Google Making Us Stupid?” in The Atlantic July/August 2008
http://www.theatlantic.com/doc/200807/google

Testimonial von Bildungseinrichtungen zu Google Apps
http://www.google.com/a/help/intl/de/admins/customers.html#edu

Bettina Fabos “The Commercial Search Engine Industry and Alternatives to the Oligopoly” Eastbound 2006
http://eastbound.eu/site_media/pdf/060109fabos.pdf

Gilles Deleuze “Postskriptum über die Kontrollgesellschaften”
http://www.nadir.org/nadir/archiv/netzkritik/postskriptum.html

Adam Arvidsson “On the ‘Pre-History of the Panoptic Sort’: Mobility in Market Research” in Surveillance & Society 1(4) 2004 [PDF] http://www.surveillance-and-society.org/articles1(4)/prehistory.pdf

“Acxiom Personicx Geo” Segmentation Tool Demo
http://www.acxiom.co.uk/Flash/PersonicX/PersonicX_Geo/welcome.swf

Antony Beckett & Ajit Nayak “The reflexive consumer” Marketing Theory, Vol. 8, No. 3, 299-317 (2008)
http://mtq.sagepub.com/cgi/content/abstract/8/3/299

Mireille Hildebrandt “Profiles and Correlatable Humans”, in Stehr/Henning/Weiler (ed.), Knowledge and the Law, Transaction 2007. (pre-print: http://www.imbroglio.be/site/spip.php?article24)

Greg Elmer “Profiling Machines: Mapping the Personal Information Economy” MIT Press, 2004

TrackMeNot Firefox-Add-on
http://www.mrl.nyu.edu/~dhowe/trackmenot/

SquiggleSR Firefox-Add-on
http://www.squigglesr.com/

CustomizeGoogle Firefox-Add-on
http://www.customizegoogle.com/

SuMa Awards 2009

Die Awards für innovative Suchmaschinen-Projekte aller Art gehen in die zweite Runde. Es gibt wieder einige tausend Euro zu gewinnen. Hier ist der Ausschreibungstext:

“Das Internet beherrscht zunehmend unser Leben. Sei es bei den alltäglichen Dingen wie den Hausaufgaben, bei der Jobsuche oder beim Einkaufen, sei es global gesehen: Das Netz ist zur wichtigsten Informationsquelle geworden und die Suchmaschinen zu unseren Wegweisern. Aber kann es richtig sein, dass wir alle demselben Wegweiser folgen? Und stimmt es nicht seltsam, dass dieser Wegweiser alle unsere Schritte verfolgt und aufzeichnet?

Mit einem Marktanteil von über 90% hat ein einziger Anbieter in Deutschland das Quasi-Monopol auf den Zugang zu den Informationen im Internet. Welche Nutzerdaten erfasst und für welche Zwecke diese verwendet werden lässt sich nicht nachvollziehen. Von einem freien, pluralistischen und demokratischen Zugang zum Wissen im Netz kann schon lange nicht mehr die Rede sein.

Mit den SuMa Awards wollen wir ein deutliches Zeichen gegen diese Entwicklung setzten und zugleich für Aufklärung sorgen. Der SuMa-eV spricht zusammen mit dem Bundesverband Deutscher Internet-Portale (BDIP) all diejenigen an, die sich mit dem Einfluss digitaler Informationen auf unsere Gesellschaft konstruktiv auseinandersetzen, sei es künstlerisch, wissenschaftlich, journalistisch, pädagogisch, technisch, im familiären Alltag oder auf jede beliebige andere Art und Weise.

Unser Ziel ist es, die Bedeutung der Informationserschließung für die zukünftige Entwicklung unserer Gesellschaft in das Bewusstsein und den Fokus der Öffentlichkeit zu rücken.

Die Verleihung der SuMa Awards unterliegt keiner thematischen Einschränkung. Eingereichte Arbeiten können ihre Botschaft beispielsweise in künstlerischer, wissenschaftlicher, programmierter, literarischer, juristischer oder medialer Form ausdrücken – aufklärend, provokativ, veranschaulichend etc.”

Weitere Informationen gibt es unter www.suma-awards.de

Technorati Tags: , , ,

Suche und Zeit

Das Projekt Zoetrope (PDF) klingt so ziemlich nach dem Interessantesten, was die Welt der Suchmaschinen in letzter Zeit zu bieten hatte. Wie schon das Internet Archive soll Zoetrope die Möglichkeit schaffen, Veränderungen von Websites über Zeit nachzuvollziehen.  Jedoch macht das Interface von Zoetrope einen wesentlich spannenderen Eindruck. So soll es z.B. möglich sein, einzelne Bereiche einer Seite mit einer „Linse“ einzurahmen und anhand eines Sliders durch die Veränderungen in genau diesem Bereich zu spulen. Daneben werden eine Reihe von Informationen angezeigt, die zu der jeweiligen Version vorliegen. Außerdem lassen sich die Veränderungen der Daten im zeitlichen Vergleich und im Vergleich zwischen Seiten visualisieren:

[youtube 7C-B7qdClak]

Die Einführung der zeitlichen Dimension in die Interfaces der Online-Suche ist längst überfällig, denn auf der Seite der Algorithmen ist sie seit langem vollzogen. Durch die kontinuierliche Archivierung des Index, der Linktopologie und der Nutzerdaten verfügt z.B. Google über eine Datengrundlage, in der sich eine ganze Reihe von zeitlichen Dynamiken und Trends ermitteln lässt. Wie in den entsprechenden Patenten nachzulesen ist, werden aus diesen Daten zudem zeitlich basierte Relevanzmodelle erstellt, die in das Ranking einfließen. Zum Beispiel wird eine Seite, bei der über längere Zeit keine Veränderungen festgestellt werden, als „stale“ definiert, was je nach Suchanfrage positive oder negative Konsequenzen für das Ranking haben kann.

Leider hat Google bisher wenig Interesse daran gezeigt, diese zeitliche Dimension auch für die Nutzer zu erschließen. Aufgefallen ist mir dies zum ersten Mal als ich den Add-on Customize Google installiert habe und plötzlich neben jedem Suchergebnis einen (völlig logischen) Link zum Internet Archive vorfand. Das intuitive Interface von Zoetrope ist daher ein sehr willkommener erster Schritt in Richtung besserer Interaktionsmöglichkeiten mit der zeitlichen Dynamik des Internets.

Jenseits der spielerischen Qualitäten erscheint mir dieser Entwicklung aus zwei Gründen besonders interessant: Zum einen könnten hier für die Wissenschaft (und die Hobby-Wissenschaft) neue Möglichkeiten entstehen, Entwicklungen im Netz über längere Zeiträume nachzuvollziehen. Für die Nutzer der Online-Suche könnten solche Tools zum anderen eine eigenständigere und transparentere Informationsbeschaffung ermöglichen. Denn wenn eine Seite automatisch als Spam klassifiziert wird, weil sie in einem bestimmten Zeitraum zu viele neue Links erhalten hat, so sollten doch zumindest die Nutzer denselben Einblick in das zugrunde liegende Datenmaterial erhalten wie die Algorithmen.

Der Vorschlag von Alan Liu, auf den ich schon einmal hingewiesen hatte, für Wikipedia-Artikel ein visuelles „pathologisches Profil“ zu erstellen und Nutzer in der Interpretation solcher Visualisierungen zu schulen, erscheint mir in dieser Hinsicht weiterhin viel versprechend. Vielleicht bieten Ansätze wie Zoetrope Nutzern zukünftig Werkzeuge, um das „pathologische Profil“ von Websites schnell und effektiv erfassen zu können und so in größerem Maß selbst entscheiden zu können, wo sie nach relevanten und vertrauenswürdigen Informationen suchen wollen.

Technorati Tags: , , ,

“Deep Search”-Dokumentation online

Die Video-Dokumentation der Konferenz “Deep Search. The Digital Future of Finding Out” in Wien ist jetzt online. Es lohnt sich, die Vorträge waren sehr gut und ergänzten sich hervorragend. Weitere Berichte gibt es u.a. beim Institute of Network Cultures, beim ORF und bei Nhan Vu. Ein erweiterter Tagungsband auf deutsch und englisch folgt im Frühahr.

Technorati Tags: , , ,

SuMa Kongress und Deep Search

Jetzt sind es nur noch einige Tage bis zu meinem Vortrag „Suchmaschinen: Eine neue Form der Medienmacht“ beim SuMa Kongress 2008. Obwohl ich schon länger Mitglied des Vereins bin, habe ich den Kongress in den letzten Jahren immer verpasst – umso besser, diesmal direkt als Vortragender dabei zu sein. Besonders freue ich mich auf die Verleihung der SuMa Awards, deren Gewinner ja schon bekannt gegeben wurden. Ich finde, mit dieser ersten Runde der Awards haben wir einen guten Anfang gemacht. Für das nächste Jahr habe ich die Koordination der Awards übernommen und ich bin gespannt, welche Einsendungen wir bekommen werden, wenn sich die Existenz dieser Preise erst einmal weiter herumgesprochen hat.

Anfang November steht mein zweiter Vortrag in diesem Herbst an. Bei der Konferenz „Deep Search“, die im Rahmen des 2nd Information Retrieval Facility Symposium in Wien stattfindet, stehen einige spannende Vorträge auf dem Programm:

Keynote

The world according to grep
Paul Duguid, Adjunct Professor, School of Information
Website

Overview

From Trust to Tracks
Claire Lobet-Maris, Professor, Computer Science Institute University of Namur, co-director of the CITA (Cellule Interfacultaire de Technology Assessment),
Website

Search Engines and Civil Liberties

Google und Privacy
Gerhard Reischl, Journalist, Vienna
Website

Search engines and digital civil rights
Joris van Hoboken, PhD candidate, Institute for Information Law,University of Amsterdam
Website

Search Engines and Power

Dissecting the Gatekeepers
Theo Röhle, PhD Candidate, Institute for Media and Communication, Uni Hamburg
Website

Democratizing Search
Bernhard Rieder, Assistant Professor, Département Hypermédia, Université de Paris VIII – Vincennes Saint-Denis
Website

Making things visible

Issue Tracking on the Web
Richard Rogers, Chair in New Media & Digital Culture at the University of Amsterdam
Website

Multipolar Search
Gon Zifroni & Tsila Hassine, Metahaven, Amsterdam and Brussels & media artist and web-programmer
Website

Technorati Tags: , , , ,

„Menschliche Prozessoren“

Ein Team der Carnegie Mellon’s School of Computer Science hat vor kurzem vier neue Spiele vorgestellt, die dazu beitragen sollen, Indizierung und Ranking multimedialer Inhalte bei Suchmaschinen zu verbessern. Der Leiter des Teams, Luis von Ahn, hatte vor einiger Zeit das unter dem Namen „Google Image Labeler“ bekannt gewordene Spiel ESP Game entwickelt. Ziel der neuen „Games with a purpose“ (Gwap) ist es, Aufgaben, die bisher noch nicht von Computern erledigt werden können, an Menschen auszulagern.

Für Suchmaschinen stellen multimediale Inhalte ein Problem dar, da sie oftmals unzureichend gekennzeichnet sind. Da die inhaltliche Erfassung von Bild- und Tondokumenten immer noch sehr aufwendig ist, gestaltet sich der Abgleich mit einer textuellen Suchanfrage schwierig. Bisher wurde dieses Problem dadurch gelöst, dass bei der Bildersuche der Titel des Bilds und der umgebende Text berücksichtigt werden. Diese Methode bringt jedoch nicht immer ideale Resultate und für ein sinnvolles Ranking stehen oftmals nicht genügend Metadaten zur Verfügung.

Das „ESP Game“ löst dieses Problem sehr geschickt: Indem zwei Spieler Tags für ein Bild vergeben und Punkte für Übereinstimmungen erhalten, wird eine große Zahl von Bildern mit Metadaten versehen und somit besser für die Suche aufbereitet. Durch die Übereinstimmung zwischen zwei unabhängigen Spielern gibt es zudem eine Kontrollfunktion, die bei einem einzelnen menschlichen Tagger nicht gegeben wäre. Da das Ganze auch noch Spaß macht, gibt es außerdem eine Motivation für die Spieler, diese Aufgaben auch ohne Entlohnung zu erfüllen.

Die vier neuen Spiele verfahren nach demselben Prinzip. Auch hier spielen jeweils zwei Spieler miteinander, Punkte gibt es für Übereinstimmungen. Bei „Matchin“ entscheiden die Spieler, welches Bild von einer Auswahl ihnen am besten gefällt und schaffen so die Grundlage für ein verbessertes Ranking. Bei „Tag a Tune“ werden, ähnlich wie beim Image Labeler, Tags vergeben, hier allerdings für Lieder. Bei „Squigl“ werden die Ränder eines Objekts in einem Bild nachgezeichnet, wodurch sich Entwickler erhoffen, in Zukunft die Objekterkennung verbessern zu können. „Verbosity“ hat einen weniger direkten Bezug zur Online-Suche: Die hier erzeugten Begriffsumschreibungen sollen als Grundlage künftiger Anwendungen im Bereich der künstlichen Intelligenz genutzt werden.

Luis von Ahn beschreibt seine Spiele als „Algorithmen, die statt auf einem Computerprozessor auf einem Prozessor laufen, der aus Menschen besteht, die über das Internet mit Computern interagieren“ (pdf). Nicholas Carr bezeichnet dies als einen „Transfer menschlicher Intelligenz in Maschinenintelligenz“, der durch das Internet ermöglicht werde. Abgesehen von der Tragweite solcher Begriffsvermischungen ist es interessant zu beobachten, welche neuen Beziehungen zwischen Mensch und Computer hier entstehen. Amazons Mechanical Turk verfolgt explizit das Konzept, eine Schnittstelle zu schaffen, über die menschliche Arbeitskraft so in Software eingebaut werden kann, dass Aufgaben, zu denen der Computer nicht imstande ist, mitprozessiert werden können.

Der Bereich der Suchmaschinen ist für diese Entwicklung besonders aufschlussreich, weil das Ranking letztlich auf der mathematischen Modellierung menschlicher Relevanzbewertungen beruht. Carr bezeichnet daher Googles PageRank als eine Methode, die menschliche Intelligenz zu aggregieren, die in das Setzen von Links eingeflossen ist. (Auch hier sei die Frage dahingestellt, ob die Terminologie adäquat gewählt ist.) Den Suchmaschinenbetreibern ist somit daran gelegen, ihre Algorithmen letztlich so weit menschlichen Relevanzentscheidungen anzunähern, dass für die Nutzer kein Unterschied mehr erkennbar ist. Reichen die Computer-Kapazitäten selbst nicht aus für diese Aufgabe, so muss eben, wie mit den Gwaps, auf menschliche „Prozessorkraft“ zurückgegriffen werden.

Interessant ist aber, dass sich für (Spam-)Suchmaschinenoptimierer genau dasselbe Problem von der anderen Seite stellt: Sie müssen möglichst billig (also möglichst automatisiert) Inhalte und Links generieren, die von den Suchmaschinen als Produkte menschlicher „Intelligenz“ wahrgenommen werden. Sind automatisierte Verfahren nicht mehr in der Lage, diesen Anschein aufrechtzuerhalten, z.B. wenn Google eine Link-Farm oder automatisch generierten Text als solche identifiziert und die entsprechenden Seiten ausschließt, wird auch hier auf billige menschliche Arbeitskraft zurückgegriffen. Die Schnittstellen sind in diesem Fall weniger glatt, das Prinzip ist aber dasselbe: In SEO-Foren wie Abakus häufen sich die Angebote der Texter, Submitter und Linkbuilder, die für geringe Entlohnung Inhalte generieren, die den Turing-Test der Suchmaschinencrawler gerade eben noch bestehen.

Technorati Tags: , , , , ,

The Search Race

Alt Search Engines ist schon seit langem eine der besten Adressen für Informationen über vielversprechende Google-Alternativen. Jetzt ist die Bewertung der alternativen Suchmaschinen interaktiv geworden: Unter www.thesearchrace.com kann man (nach Registrierung) über verschiedene Suchmaschinen abstimmen und noch nicht erfasste Suchmöglichkeiten hinzufügen. Neben der aktuellen Platzierung ist in der Liste auch jeweils eine kurze Beschreibung der verschiedenen Suchvarianten angegeben. Bleibt zu hoffen, dass sich die Liste schnell füllt und dass es im Laufe des Rennens zur “Search Engine of the Year” interessante neue Ansätze zu entdecken geben wird.

Technorati Tags: , ,

Band zum acatech-Symposium

Zum acatech Symposium „Mehr als Stichworte. Wie arbeiten die Suchmaschinen von morgen?“, das letztes Jahr in Berlin stattfand (mein Bericht hier), ist jetzt der Tagungsband erschienen. Er enthält u.a. Beiträge von Marcel Machill, Rainer Kuhlen und Rudi Schmiede und kann als PDF heruntergeladen werden. Damit ist auch der Überblick über die Suchmaschinenforschung von Machill/Beiler/Zenker aus dem Band „Die Macht der Suchmaschinen“ gratis verfügbar, was vor allem für Einsteiger in die Thematik interessant sein dürfte.

[via @-web]

Technorati Tags: , , , ,

24 Seiten Google

Endlich einmal ein wirklich empfehlenswerter journalistischer Beitrag zum Thema Suchmaschinen: Die Schweizer Wochenzeitung hat eine 24-Seiten-Beilage mit dem Titel “Dein großer Bruder” herausgebracht. Vom Datenschutz bis zu alternativen Suchmöglichkeiten deckt die Beilage so ziemlich alle Aspekte der Suchmaschinenproblematik ab. Mit dabei ist auch ein Interview mit dem Soziologen Rudi Schmiede und ein von Klaus Patzwald verfasster Einblick in die Geschichte der Suchmaschinen. Die Beilage kann gratis als Klassensatz für die Schule bestellt werden, was der Medienkompetenz in Sachen Suchmaschinen sicher gut tun wird.

Technorati Tags: , ,