Zunächst einmal ist es ziemlich wohltuend, dass sich jemand dem Phänomen Google nicht mit der üblichen, dämonisierenden Aufgeregtheit nähert, sondern einen eher nüchternen Ton anschlägt. Andererseits scheint es nicht ganz einfach zu sein, über einen Konzern zu berichten, der sich in bestimmten Bereichen extrem zurückhaltend mit Informationen verhält. So stachelt man einerseits nur noch mehr die Neugier an, dokumentiert aber andererseits indirekt die Fragilität eines Unternehmens, welches zwar aus nachvollziehbaren Gründen beispielsweise Art und Standort ihrer Rechner oder Details über den Such-Algorithmus ihrer Suchmaschine streng unter Verschluss hält, letztlich aber auch aus der Verwendung ihrer mindestens theoretisch möglichen Datenpakete, die sie von Usern gesammelt hat, nicht offenlegt.
Diese Fragen wirft Lars Reppesgaard in seinem Buch »Das Google-Imperium« zwar durchaus auf, aber derartige kritische Ansätze sind gut verborgen im Teig einer idyllischen Unternehmensprosa, die beispielsweise den Google-Arbeitsplatz als eine Mischung aus possierlichen Nerdtum, kuschelige[r] Programmierbutze, hochkonzentrierter und doch immer auch experimenteller Versuch und Irrtum-Tüftelei und universitär-elitärer Informatikwissenschaft darstellt. Hier arbeiten nur Genies. Da bastelt Reppesgaard ganz schön am Image des genialischen Nonkonformistentums, mit dem sich Google auch heute noch gerne parfümiert.
Firmenjargon und Majuskel
Es gibt 20.000 Mitarbeiter weltweit, 8.000 davon in Mountain View/Silicon Valley (350 in Zürich, dem inoffiziellen Google-Europa-Hauptquartier). Die Produktivität sei hoch schreibt Reppesgaard – jeder Google-Mitarbeiter erwirtschaftete im Jahr 2007 fast eine Million Dollar. Dabei wird ersichtlich, dass der Autor nicht genau weiss, was Produktivität bedeutet und einfach den Umsatz durch die Anzahl der Mitarbeiter dividiert hat. Überrascht wird konstatiert, dass Googler (diesen Kosenamen übernimmt Reppesgaard für die Angestellten von Google durchgängig; auch ansonsten bedient er sich laufend des Firmenjargons, etwa wenn neue Mitarbeiter als Noogler und ehemalige als Xoogler bezeichnet werden – und, mehr als nur eine Petitesse, alle Google-Produkte, das Wort »Google« selber und Ableitungen hieraus durchgängig in Majuskeln geschrieben sind) noch nicht einmal die besten Gehälter in der Branche bekommen, die Einstellungsverfahren jedoch zäh sind (und früher noch zäher waren), weil jeder in dieser gemütlich-tollen Atmosphäre (der Apfelstrudel in der Google-Kantine!) unbedingt arbeiten möchte. So bekommt man – hauptsächlich aufgrund der Aura, mit der man sich umgibt – die »Besten« aus den Universitäten, um an der Mission der vollständigen Indexierung des »Wissens« der Welt zu arbeiten.
Es ist bezeichnend, dass Reppesgaard die Hybris über eine Suchmaschine, die wie der Geist Gottes ist eine bessere Welt zu »bauen« und die futuristische Allüren mit religiösen Heilserwartungen zu einem giftgrünen Cocktail vermengen als Vision feiert, ohne die Konsequenzen dieser Parolen auch nur zu erwägen (und sich stattdessen am Ende pflichtschuldig mit Datenschutzproblemen eine kleine Kritik erlaubt).
Das Buch ist narrativ angelegt und nur sehr grob strukturiert. Es gibt keine Tabellen, die Firmenstrukturen und ‑beteiligungen oder Umsatzentwicklungen aufzeigen. Quellenangaben für die aufgestellten Behauptungen (bspw. was das Nutzerverhalten angeht) gibt es keine (ausser: Google!); Fussnoten demzufolge auch nicht. Mühsam muss sich der Leser Umsatzzahlen, Aktienkurse und Beteiligungen aus dem Text herausklauben, wobei alles Flickwerk bleibt, da die Daten unvollständig wiedergegeben sind. Interessant ist auch, was nicht gesagt wird. So erfährt der Leser zwar von der Kooperation [Googles] mit Apple beim »iPhone«, aber dass Eric Schmidt, die Nummer drei bei Google, im Verwaltungsrat von Apple sitzt, war Reppesgaard keine Erwähnung wert. Ständig wird von Zukäufen geredet, aber in welchem Verhältnis diese Firmen zum und im Konzern stehen, bleibt diffus. Insofern ist der Titel »Das Google-Imperium« anmaßend, da er eine strukturelle Auseinandersetzung suggeriert, die nicht stattfindet (der kindische Hinweis am Ende des Buches, das »Google-Imperium« sei kein Imperium wie das Römische Reich, das andere unterwerfen kann spricht Bände).
Die Sprache
Mit voller Begeisterung ist Reppesgaard bei der Schilderung von Google-Produkten wie »Google Earth« oder »Google Maps« dabei. Wie ein Kind, das endlich mit seiner Modelleisenbahn spielen darf, wird da geschwärmt. Auf die Schwierigkeiten und Probleme mit »Street View« wird zwar eingegangen, aber es gehört zum Prinzip dieses Buches (welches nur in der Mitte für kurze Zeit und auf den letzten zehn Seiten aufgehoben scheint), dass am Ende von kritischen Darstellungen eine beschwichtigende Stellungnahme irgendeines ranghohen Google-Managers für »Entwarnung« sorgt.
Die Distanz des Autors zum Gegenstand seiner Untersuchung (Google) ist, wie sich an der Sprache zeigt, nicht besonders ausgeprägt. Google entdeckt beispielsweise etwas; das Unternehmen ist selbstironisch, aber dynamisch; die Wände in den Büros sind bunt bemalt und ein andermal leuchtet etwas in den GOOGLE-Farben; die sogenannten »Googler« wollen lernen, wenn sie Log-Files anlegen, usw. Die Aktivitäten im Bereich der Speicherung von Gesundheitsdaten und der Gendiagnostik verschaffen Google einen Platz in der Pole Position (falls es irgendwann Profite abwirft – wie das sein könnte, untersucht Reppesgaard natürlich nicht und auch, welche Daten Google von welchen Externen in diesem Produktbereich evaluieren lässt, bleibt unklar).
Beim Scannen von Büchern geht Google beherzt vor, obwohl, wie Reppesgaard selber ausführt, die rechtlichen Voraussetzungen noch längst nicht immer feststehen. Aber die Leute, die für Google dieses Projekt betreuen sind eben Buchenthusiasten – was scheren einem da die Interessen von Autoren und Verlagen (womit indirekt suggeriert wird, das letztere keine Enthusiasten sind).
Mal ist Google der Senkrechtstarter, mal sind sie die Strategen von Mountain View und ein andermal sind die »Googler« einfach nur clever. Kurz bevor Reppesgaard dann am Ende ein bisschen Kritik einstreut (und halbherzig einige Alternativen zu Suchmaschinen und den sonstigen Diensten anbietet – auch hier wieder ziemlich ungeordnet [die Blog-Suchmaschine Technorati heisst bei ihm Technokratie]), wird aus Google noch einmal die freundliche Suchmaschine, die von smarten Jungs aus dem Silicon Valley betrieben wird, die – man ist froh, das zu erfahren – allerdings auch keine Heiligen seien. Beschwichtigend heisst es am Ende dann, dass sich Ärger nie ganz vermeiden lässt.
Und das trotz des Börsengangs, der doch, wie Reppesgaard sich bemüht herauszustellen, aus Google eine bürokratischere Firma mit strafferer Führung gemacht haben soll, in der es jetzt auch mehr Hierarchie gibt und sogar einige Mitarbeiter, die das Unternehmen verlassen haben (wie zum Beispiel der Koch der hauseigenen »Kantine«). Während am Schluss dann darauf verwiesen wird, dass das Triumvirat (die beiden Google-Gründer Sergey Brin und Larry Page sowie Eric Schmidt) weiterhin zwei Drittel der Aktienstimmrechte besitzen und dies nicht unbedingt ein Vorteil sein muss (der gelegentlich unkonventionell daherkommenden Bauchentscheidungen wegen), gleichzeitig sich der Autor jedoch darum sorgt, was wohl passiert, wenn alle gleichzeitig verunglücken sollten.
Nicht mehr als Produktbeschreibungen
Auf Seite 57 erfährt man das erste Mal etwas über »Adsense« und »Adwords« und auf Seite 77 wird zum ersten Mal die Bedeutung eines Algorithmus angesprochen (anhand des »Page-Rank-Algorithmus«). Mit tiefgehenden Erläuterungen hält sich der Autor nicht länger auf. Stattdessen macht der Leser am Anfang eines jedes Absatzes beispielsweise mit einer Hellseherin, einem Bioladenbesitzer oder ein paar grübelnden Wissenschaftlern kurz Bekanntschaft – und bekommt deren Verwicklungen mit Google erzählt.
Wer in einem kursorisch-erzählerischen Parforceritt über die verschiedenen Google-Produkte informiert werden möchte – der ist hier richtig. Am Rande erfährt man durchaus wissenswerte Splitter (etwa über die Stellung der Suchmaschine Google in Russland, Tschechien und China [der »Sündenfall« der Zusammenarbeit mit der chinesischen Regierung wird ausführlich behandelt]). Wer aber zum Geheimnis des Erfolgs mindestens eine These angeboten bekommen möchte und die auch vom Autor zugestandene Datensammelwut von Google einfach nur ob des Zwecks befragt, der bleibt leider alleingelassen. Klar, Adsense und Adwords sind keine enervierenden Banner, die einem laufend aus dem PC heraus anspringen. Das Design ist schlicht und einfach; die Kosten für den Werbetreibenden übersichtlich und selbst gestaltbar. Und man hat inzwischen dahingehend eine sehr gute Verknüpfung erreicht, dass die kleinen Werbeanzeigen thematisch ziemlich genau (fast) immer richtig platziert sind.
Und die Google Suchmaschine findet ja wirklich sehr schnell die Datensätze. Aber ob es tatsächlich auf die halbe Sekunde Vorsprung vor Yahoo, Ixquick oder MSN ankommt? Warum wird das System des Page-Rank-Algorithmus als das Nonplusultra betrachtet? Warum kann man davon ausgehen, dass stark verlinkte Seiten wichtiger sind als Seiten, auf die nur wenige Links verweisen? Was bedeutet wichtiger? Google nimmt an, dass auch der eintausendunderste Surfer beim Eintippen des Begriffs ein Ergebnis für gut hält, wenn schon tausend vor ihm es als treffend empfunden haben. Woher weiss aber Google, ob der Surfer das Ergebnis als treffend empfunden hat? Der Klick auf den Link sagt weder etwas über die Qualität des Textes aus, der sich unter diesem Link öffnet noch darüber, ob der Suchende diesen Text nützlich fand. Letztlich folgt die Suche einem Art mechanisierten Bestseller-Prinzip (wiederholt stellt Reppesgaard heraus, dass man bei Google alles mechanisiert und automatisiert; es gibt keine Auswertungen »von Hand«), welches zwar modifiziert und »verfeinert« ist, um Manipulationen (die im Buch erwähnt werden) auszuschalten, aber eine Transparenz über die Kriterien, nach denen die Reihenfolge der Suchergebnisse festgelegt wird, existiert nicht. Man stelle sich nur einmal den Fall in der »Realwirtschaft« vor: Ein Autokonstrukteur stellt seinen Kunden ein fertig durchgestyltes Autor zu Verfügung – aber Baupläne und Schalttafeln bleiben einfach unter Verschluss.
Appell und halbherzige Kritik
Letztlich bleibt es ein Rätsel, wie eine Firma mit diesen kleinen Anzeigen soviel Geld verdienen kann. Reppesgaard betont, dass derzeit rund 99% des Umsatzes mit Werbung gemacht wird (»One Trick Pony«) und Google primär eher KMUs anspricht; viele der vorgestellten Projekte sind zukunftsorientiert und erwirtschaften (noch) keinen Gewinn. Die Gefahren der detaillierten Datenerhebungen (auch wenn Google Name und Adresse des Surfers nicht einmal kennt) werden durchaus erwähnt. Und in Ansätzen wird dem Leser klar, dass Google mit seiner Wildwest-Maxime »Wer nicht widerspricht, ist im Boot« (Opt-Out-Prinzip; zum Beispiel beim Einscannen von Büchern) dabei ist, private Gesetze zu implementieren und über gängige Rechtsauffassungen zu stellen. Dabei nutzt man geschickt die unterschiedlichen Rechtssysteme und die Trägheiten in einer global nicht hinreichend aufeinander abgestimmten Justiz aus. Das Image des rebellischen Outlaw, am Anfang emphatisch herausgestellt, bekommt da plötzlich eine ganz andere Bedeutung.
Reppesgaard betont – zu recht – auch die Verantwortung des einzelnen Users, dem es durchaus selber obliegt, seine Track-Cookies und sonstigen Datenspuren im Netz zu minimieren bzw. zu »koordinieren«. Viele surfen arglos umher statt zum Beispiel ihre Suchanfragen auch einmal anderen Suchmaschinen anzuvertrauen (man wundert sich, wie unterschiedlich die Ergebnisse sind; und nicht nur zum Schlechteren). Und dennoch kommt Reppesgaards Fazit wenige Seiten vor Schluss wie Kosmetik daher, welche die über weite Teile des Buches vorherrschende Gefälligkeitsprosa ein wenig übertünchen soll: Eine Garantie, dass GOOGLE die freiwillig zugeteilte Macht nicht missbraucht, bekommen die Nutzer nicht. Und ein Versprechen ist etwas anderes als ein einklagbares Recht oder ein Gesetz, an das sich jeder halten muss. Deshalb lautet das klare Fazit: Für das, was auf dem Spiel steht, ist ein Versprechen nicht ausreichend.
Es bleibt offensichtlich schwierig, sich dem Thema »Google« in neutraler, vorurteilsfreier Art zu nähern. Entweder überschlagen sich die Verschwörungstheorien (was letztlich eine Folge mangelnder Transparenz und unsouveräner Geheimniskrämerei ist) oder man erliegt dem Faszinosum. Hätte Lars Reppesgaard sein Buch doch seriöser strukturiert, mehr Abstand zu den Pressemitteilungen von Google gehalten und auf die Weitergabe allzu offensichtlicher Marketingbotschaften von Google verzichtet! Aber das wäre sicherlich anstrengender gewesen.
Die kursiv gedruckten Passagen sind Zitate aus dem besprochenen Buch
Die ersten Fragen, die sich mir nach dem Lesen Ihres Beitrages stellen: Wieso als erstes Google beim Suchen?
Woran kann es liegen, dass Internetnutzer bei einer Suche gar so schnell oder als erstes zu dem Gockel greifen – auch sie von anderen Suchmaschinen wissen? Weshalb ist gerade diese Suchmaschine so beliebt/bekannt/häufig?
« Der Klick auf den Link sagt weder etwas über die Qualität des Textes aus, der sich unter diesem Link öffnet noch darüber, ob der Suchende diesen Text nützlich fand.« – Zitat Ende.
Wenn ich mir nun als Beispiel hernehme, ich suche eine bestimmte Information in einem Buch oder in einer Zeitschrift, so sagt das Auffinden eines Textes auch noch nichts darüber aus, wie brauchbar oder nützlich der gefundene Inhalt für mich als Suchenden ist oder über die Qualität.
Der Erfolg von Google
(auch ein bisschen nach Reppesgaard):
* Geschwindigkeit und Anzahl der durchsuchten Seiten (hierfür ist die enorme Infrastruktur notwendig)
* Qualität und Relevanz der Suchergebnisse (hier gehen eben die Meinungen auseinander)
* Sehr schlichte Webseite (ohne Bannerwerbung)
* Dto. für die Suchmaschinenresultate
* Benutzerfreundliche Anwendung
* Viele andere Tools, die ergänzend die Suche optimieren können.
Seit Sommer 2008 beobachte ich teilweise grosse Unterschiede bei den Resultaten von Google‑, Yahoo- und Ixquick-Suchen. Das bezieht sich übrigens nicht nur auf diesen Blog hier (während Buchbesprechungen bei Yahoo unter den ersten 20 Resultaten zu finden sind, landen sie bei Google, wenn überhaupt, bei > 200). Google bietet übrigens auch eine Blogsuche an (Reppesgaard erwähnt diese nicht).
Wenn ich z. B. nach einem bestimmten Buch suche und auf einen Buchbesprechungs-Link von der Süddeutschen Zeitung klicke, so sagt dies nicht aus, dass dieser Link für meine Suche Relevanz hat. Wenn aber viele darauf klicken, dann ist für den Mechanismus der Suchmaschine dieser Link relevanter und »wichtiger« als eine Besprechung, die von einer Ein-Mann-Webseite geschrieben wurde. Dadurch kommt die Ein-Mann-Webseite natürlich nie nach oben, weil sie erst gar nicht unter den ersten 20 auftaucht. Für die Suchmaschine selber ist irrelevant, ob der Link für den Suchenden von Interesse ist – sie »bewertet« einzig und allein die Quantität der Klicks und, das ist wichtig: die Anzahl der Verlinkungen der Webseite. Wenn also die Besprechung der SZ von anderen Usern mehr verlinkt wird als die von der Ein-Mann-Webseite, dann bekommt diese einen prominenteren Platz. Dadurch schreibt sich das System aber immer weiter fort, d. h. der prominent platzierte Link wird immer mehr noch mehr verlinkt werden, suw.
Was mich stört ist, dass davon ausgegangen wird, dass die Masse der Klicks und Links an sich schon ein Urteil über die Relevanz des gefundenen Objektes darstellt. Das ist ungefähr so, als würde man die Bestsellerliste dahingehend interpretieren, dass die meistverkauften Bücher automatisch die Besten sind.
Wenn ich Sie richtig verstehe, beanspruchen die Googlebetreiber, die Häufigkeit sei gleichbedeutend mit Qualität. Oder ist das etwas, das Internetnutzer glauben? Oder überhaupt ein allgemeiner Fehlschluss, wenn etwas häufig genannt wird, dann sei es bedeutungsvoller oder wertvoller?
Die Liste er Erfolge von Google, die sie so schön übersichtlich angeführen, ist diese nicht genauso auf andere Suchmaschinen übertragbar? Wer hat die Bestimmungmacht darüber, zu sagen, Google sei benutzerfreundlicher als andere Suchmaschinen?
Google sagt (meines Wissens) nichts über die »Qualität« der Suchergebnisse aus. Wenn überhaupt, wird dies über Masse und Zahl der gecrawlten Seiten definiert. Ich habe die Zahl der Seiten, die Google »abscannt« (crawlt) nicht mehr im Kopf, aber es sind wohl die meisten. Hieraus und aus dem speziellen/den speziellen Programmierungen soll dann das umfassendste Suchergebnis vorliegen. Streng genommen kann man sagen: Das, was Google nicht findet, gibt’s für die User (erst einmal) nicht.
Die Benutzerfreundlichkeit ist wohl an früheren Suchmaschinenseiten zu messen, als einem die Banner noch ansprangen. Inzwischen kopieren viele das Google-Design.
Letztlich bleibt es ein Phänomen, warum Google einen derart hohen Stellenwert bspw. in Deutschland besitzt (ca. 90%). Das dürfte einerseits an einer gewissen Lethargie der User liegen (ich nehme mich da nicht aus), andererseits wird es natürlich durch die immer zahlreicheren Angebote von Google (Toolbar) auch immer einfacher. Komisch, dass noch niemand nach Muster von Verbrauchertests Suchmaschinen geprüft hat.
(Im Buch wird mehrfach erwähnt, dass sich Google der Konkurrenzsituation durchaus bewusst ist: Der user ist immer nur einen Klick vom Wettbewerber entfernt...)
Das heißt aber dann lediglich: Was Google nicht anzeigt, ist in den Suchkriterien und ‑funktionen der Google-Maschinerie nicht vorhanden ist.
Die Benutzerfreundlichkeit einer Suchmaschine: Bezieht sich diese auf die Nutzer des Internets auf der Seite des Kunden, oder auf der Seite der Betreiber? – Die ja zugleich auch Nutzer des Netzes sind, in dem sie daran verdienen. Könnte die Rechnung nicht ebenso lauten: Benutzerfreundlichkeit = Betreiberfreundlichkeit?
Ich war versucht, zu glauben, das Phänomen Google könnte damit zusammenhängen, dass es die erste Suchmaschine war und deswegen mehr ins Bewußtsein der Menschen gedrungen, bevor andere auf den Markt kamen, aber soweit ich das überblicke war Yahoo der erste Suchmaschinenanbieter.
Was Google nicht anzeigt, ist in den Suchkriterien und ‑funktionen der Google-Maschinerie nicht vorhanden ist.
Ja, aber das ich nicht unbedingt ein Google-Problem. Ich hatte beispielsweise versucht, ein paar alte Besprechungen von Thomas Bernhards Büchern und Theaterstücken nachzuschlagen. Bernhard ist 1989 gestorben, also in einer Art »Internet-Steinzeit«. Gefunden werden nur Texte, die von Spiegel oder Zeit oder sonstwem in ein Archiv überführt wurden oder Sekundärliteratur, die von Google-Books eingescannt wurde (allerdings nicht lückenlos verfügbar ist) – der Rest »existiert« nicht.
Es gibt ja auch Untersuchungen darüber, wie weit die User die Suchmaschinenergebnisse nachschauen. Sie sind allesamt ernüchternd; bis zur dritten Seite geht kaum jemand. Das bedeutet auch, dass Dokumente, die auf Position 200 oder 300 auftauchen (aufgrund des Suchalgorithmus auf dieser Position sind) zwar vorhanden sind, aber praktisch nicht mehr gefunden werden.
Unter Benutzerfreundlichkeit verstehe ich die möglichst problemlose Benutzung durch den Suchenden.
Wie ist das mit dem exponentialen Wachstum der Suchanfragen bei Google und dem irgendwann einmal folgenden Umkehrung bzw. Zusammenbruch? Wenn es im Jahr 1999 täglich drei Millionen Suchanfragen gab und sich diese durch das exponentialw Wachsen vervielfachen, dann wird irgenwann einmal der Punkt erreicht, an dem das System kippt. Über lange Zeit steigt die Wachstumskurve gleichmäßig und kontinuirlich an, bis es dann an einer Stelle zu einem übermäßigen hochschießen kommt, worauf ein Zusammenbruch folgt, bzw. anstatt er Vorteile eines Systems die Nachteile überwiegen. Die Schnelligkeit von Google, oder die immer wieder Platzierung prominenter Links wird zum Nachteil des Systems.
Beispiel Auto: Anfangs war es eine wunderbare Möglichkeit der Mobilität in der Stadt, doch mit dem Anwachsen der Zahl an Autos kommt es zu mehr Autos auf den Straßen und zu mehr Verkehr, und irgendwann wenn es zuviele sind, kommt man mit dem Auto nicht mehr schnell(er) voran, sondern steckt im (täglichen) Stau.
Hierüber gibt’s keine Hinweise. Irgendwo steht geschrieben, dass Google rund 1 Mio. Rechner in diversen Rechenzentren miteinander verknüpft hat, wobei diese Zahlen – natürlich – geheim sind. Reppesgaard schreibt sinngemäss, dass die Infrastruktur von Google derart weit entwickelt ist, dass Wettbewerber Millairden investieren müssten, um auf das gleichen Niveau zu kommen.
(Ein Experte bin ich eben nicht; das Buch hinterlässt eben diese Fragen ungelöst.)
#6
, die meisten User gehen nur bis zur dritten Anfrage. das war mir bisher gar nicht bewußt. Ich selbst setze meine Suche häufig in den hinteren Seiten an, weil ich wohl irgendwann die Erfahrung genmacht habe, weiter hinten auf brauchbarere Seiten gestoßen zu sein.
Eine weit entwickelte Infrastruktur schützt noch nicht für alle Zeit vor einem Zusammenbruch, wie wir in der Geschichte sehen können. Wieviele Firmen sind schon zugrunde gegangen, durch eine ursprünglich banalen Auslöser.
Die meisten User...
verbleiben bei den ersten zehn Resultaten (ich glaube, es waren rd. 70%; ich habe das Buch nicht mehr, es war nur geliehen). Nur rd. 13% gehen bis Seite 3...
Bevor Google erschien
gebrauchte ich einen Mechanismus der mir so ein duztend Suchmaschinen auf einmal brachte. Der Name entfaellt momentan dem Gedaechtnis.
Ich war bei dem Aufbau der http://www.handke.scriptmania.com/
Site mit ihrem jetzt dutzenden – die neueste heisst http://handke-photo.scriptmania.com/index.html
Subsites beschaeftigt
Da gab es z.b. eine Deutsche Suchmaschine die viel ergiebiger war aber ich bin stur!! bei allen bis zum bitteren Ende gesucht..
[ich ruettle in meinem Kopf danach und werd jetz nach »Suchmaschinen« bei Google googlen... wie spricht man dieses Wort eigentlich auf Deutsch aus? Es ist doch ein Ton den es garnicht of Deutsch gibt! na ja das »u« wie im »uhu«
Wikepedia gibt die folgende riesige Liste aller-artigen Suchmachinen an:
http://en.wikipedia.org/wiki/List_of_search_engines
von denen ich die folgende gebraucht habe
dog pile
northern lights war vor jahren was
technorati
yahoo
msn search
hab ich alle gebraucht zu der Zeit..
die Deutsche taucht da nicht auf, red hot oder aehnlich hiess und war sehr ergiebig was Deutschland betraf
hier eine Liste der Deutschen engines die es gibt
[Link ist tot]
auch nicht den meta searcher die mir eine Auswahl von Suchmaschinen gab... dadurch dass ich da damals, vor zehn Jahren ungefaehr alle abgekloppt habe ging mir auch auf dass es eine vor und nach Suchmachinen Zeit gibt...Prehistorie..... and dass es auf den Reichtum einen Unternehmen abhaengt ob sie die pre-historischen Archive digitalisieren....
Ich hab, z.b., von der FAZ und der Suedeutschen auch viel gekauft, als PDF, eine liebe Frau bei FAZ hat mit auch einmal ein dutzend PDF Handke Artikel kostenlos per e‑mail geschickt die zu der Zeit als ich fuer die Hauptsite
http://www.handke.scriptmania.com/
zahlte, ich dann als Bilder [jpeg] dem oeffentlichem Interessen an Sachen Handke auf diese Art zugaengig machte
nachdem die Site, trotz vieler hundert Dolares von »freeservers« bei einer Wandlung vom einem Server auf einen anderen kaputt ging! und die lieben Leute, trotz angeblichen Backup, keinen hatten zahl ich nicht mehr sondern lass es mit Ads bezahlen...
Mein erstes grosses Such Abenteuer ist jetz auch beinah 15 Jahre alt:
Es war der Versuch einer Parallele zu den Zerfalls-Kaempfen in Yugoslavien zu verfolgen: dem Handke-Serbien-Media Krieg... der ist dann noch zwei weitere Male entfacht....
Auf die Handke Seite bei Begleitschreiben waere ich nie gekommen ohne dass der liebe »Keuschnig« mich durch ein »posting« von mir zu einem Handke Artikel bei der »Zeit« augegabelt hat; und, wie gesagt, »the rest ist History«....
dass Google die »hits« auf die primitive Art der Mehrzahl auswertet macht mir in meinem Fall nicht soviel aus da ich eben stur weiter suche..... ausserdem hatte ich den Vorteil bei einer grossen Universitaet die schnellen Computers in der Bibliothek [Medizinisichen] zu benutzen...
Rosenherz’s Furcht des exponentiellen Hegelschen Umsturz ins Wieder Nichts, ich hab genug der
Sorgen...
Hier ist ein Link zu einer noch groessern Auswahl an spezifisch Deutschen Suchmaschinen:
http://www.arab.de/gsearch.htm
Man merkt an den Aussagen und dem Anspruch der hier an eine Suchmaschine gestellt wird, wie genial das System Google tatsächlich ist. Wer schon vor der Google-Ära im Internet gesucht hat/suchen mußte, der wird sich daran erinnern was für ein Quantensprung das PageRank-Verfahren war. Ungläubiges Staunen über die fast hellseherische Relevanz der Suchergebnisse war das Ergebnis. Das, was man heute »googlen« nennt, wurde dadurch erst möglich.
Dann kam der Sündenfall der SEOs (Serach Engine Optimizer). Firmen versuchten auf Teufel komm raus das System zu korrumpieren, indem versucht wurde, die Kriterien die Google an einen »guten« Link setzt, zu erfüllen. Schlimmer war die Installation von Linkfarmen, die nichts anderes machten, als massiv untereinander zu verlinken, um die Relevanz zu erhöhen. Dieses Ratrace zu gewinnen ist die heutige Aufgabe von Google.
Sicher ist das Internet ein Haifischbecken, in dem schnell nur einer übrig bleibt. Aber auch in der Wissenschaft ist die Anzahl der Zitate ein Qualitätsmerkmal, bei dem nicht immer auf die Provenienz des Zitierenden geschaut wird. Und wer belastbare Ergebnisse braucht, der kommt eh nicht darum herum, themenbezogene Suchmaschinen (gibt es für alles und nichts) oder kategorisierte Verzeichnisses wir z.B. DMOZ zu verwenden.
(Ja, ich habe mich bei Twodays angemeldet)
Hiermit ein Link zum neuesten Google Abenteuer
Google Untersee, Google Cousteau
und meine Mitgliedschaft bei den Analytikern hat mir diese erfreuliche Nachricht vom Werkblatt der Deutschen Analytiker heut Morgen beschert:
Meldungen des Tages:
2. [werkblatt]
https://www.begleitschreiben.net/thomas-bernhard-meine-preise/#comment-5825
Thomas Bernhard, von dem »Keuschnig« auf Begleitschreiben! xx
michael roloff] (mikerol)
———————————————————————-
#14
War der Vorgänger nicht »Doubleclick«?
#13 – Peter42
Ich kenne diese »Vor-Google«-Zeit nicht und bin daher vermutlich ein bisschen »verwöhnt«. Dennoch halte ich die massenweise Verwendung von Google für zum Teil auch Bequemlichkeit. Ich habe auch ein G‑Mail-Konto und die Toolbar – da greife ich selten auf andere Suchmaschinen zu, obwohl die Unterschiede teilweise gravierend sind.
(Prima das mit der Anmeldung)
Ein paar Gedanken
Für hochproduktive Softwarefirmen ist es gar nicht so abwegig, Umsatz und Gewinn fast gleichzusetzen, weil die Personalkosten über 50% der Gesamtkosten ausmachen, ansonsten braucht man nur noch Büros, Kaffeeautomaten, einen Pizzaservice in der Nähe, einen Serverpark und jede Menge Strom.
Dieselben Konzentrationsprozesse, die man im Meatspace findet und wegen denen München boomt und MeckPom ausblutet, findet man auch in der virtuellen Welt der Information. Während vor einigen Jahren Microsoft unglaublich beliebt bei den Informatikern war, ist es jetzt Google. Da sitzen tatsächlich die besten Softwareleute weltweit.
Der klassische Kampf um den Datenschutz ist verloren. In der Zukunft wird alles mit allem vernetzt und verknüpfbar sein. Google ist da an vorderster Front dabei: Online-Nutzerprofil, Detailansichten der Wohngegend. Bald persönliche Dokumente (Textverarbeitung, Tabellenkalkulation, Fotos) auf zentralen Servern. Irgendwann werden die Krankenkasseninformationen und das Bewegungsprofil (über die Handydaten) dazukommen. Das ist nicht aufzuhalten, weil man damit sehr viel Geld verdienen kann. In 100 Jahren werden sich die Menschen über den Widerstand wundern, den heute Schäubles Pläne hervorgerufen haben – weil die Daten in der Hand privater Konzerne noch viel brisanter sind.
Zu Umsatz und Gewinn: Im Buch wird beispielsweise beschrieben, wie aufwendig die Infrastruktur betrieben ist (man spricht von 1 Mio. Rechnern und meheren Rechenzentren) und wi ehoch die Stromkosten sind (naja, genau gesagt wird das nicht, aber postuliert). Die Versuchung bei Dienstleistern (im Gegensatz zu Produktionunternehmen) Umsatz und Gewinn gleichzusetzen, ist gross, aber falsch.
–
Den anderen Punkten stimme ich zu, wobei persönliche Dokumente ja heute bereits massenweise auf anderen Servern lagern. Auch der Gedanke, dass die heutigen Aufregungen um Schäubles Datengesetze in Zukunft so abwegig sein werden wie Goethes Aufregung über die Eisenbahn, ist ganz sicher zutreffend.
Theoretisch könnte ein Demiurg in 100 oder 200 Jahren auf den Gedanken kommen, prophylaktisch alle Bürger gentechnisch »abzuspeichern«. Somit wäre ein Verbrechen per se fast unmöglich zu begehen, da jederzeit ein DNA-Abgleich erfolgen könnte und den Täter sofort entlarven würde. Unsere heutigen Bedenken dazu werden dann keine Rolle mehr spielen. Ich würde was drum geben zu erfahren, ob dann die Kriminalitätsrate sinkt.
1 Million Rechner kosten 100 Millionen Euro und halten 2 Jahre durch = 50 Mitarbeiter Umsatz. Sie verbrauchen 100 Millionen Euro Strom im Jahr = weitere 100 Mitarbeiter Umsatz im Jahr. Nimm einfach Personalkosten von 100.000 Euro pro Person im Jahr und multipliziere sie mit 2: 200.000 Euro Kosten je Person bei 1 Million Umsatz macht 800.000 Euro Gewinn je Person. Selbst wenn man noch viele weitere Kosten hat, beträgt die Gewinnspanne mindestens 50%. (Alle meine Zahlen sind grobe Hausnummern.)
Das standardmäßige Abspeichern von DNA zum Zeitpunkt der Geburt kommt mit absoluter Sicherheit in den nächsten 50 Jahren. Die Kriminalitätsrate wird nicht sinken, so wie es jetzt Analysen der Videoüberwachung in Großbritannien gezeigt haben: http://www.heise.de/tp/r4/artikel/19/19543/1.html
In dem Artikel werden eine Reihe von Gründen angeführt, warum es nicht funktioniert hat, weil die Untersuchungen natürlich mit dem Ziel geführt wurden, das Funktionieren zu beweisen bzw. zu organisieren. Es wird aber auch nach Abstellen aller Mängel nicht funktionieren.
Genauso wird es mit der DNA werden. Die Möglichkeit entdeckt oder hart besstraft zu werden, verhindert a) Affekttaten nicht und b) führt zu ausweichendem Verhalten in der organisierten Kriminalität. Sowohl sehr dumme als auch sehr kluge Verbrecher setzen ihre Arbeit fort. Aber die gefühlte bzw. tatsächliche Einschränkung individueller Freiheiten betrifft alle Bürger.
Das beste Beispiel ist die Prohibition in den USA gewesen: Es wurde eine neue Kriminalitätsform aufgetan, der Organisationsgrad der Verbrecher stieg beträchtlich an und die Gewinnmargen auch.
Naja,
Reppesgaard schwadroniert von insgesamt 7,2 Milliarden US$ Stromkosten für die gesamte Branche; das bleibt aber alles ein bisschen nebulös. Dennoch ist eine Gleichsetzung von Umsatz und Gewinn grob falsch. Am Stammtisch oder in einem Blogkommentar kann man solche groben »Hausnummern« verwenden, in einem Buch, welches sich hochtrabend »Das Google Imperium« nennt, meines Erachtens nicht. Wenn die Recherchequalität des Autors auf anderen, für mich nicht unmittelbar nachprüfbare Gebieten, ähnlich holzschnittartig ist, kann man sowas sofort vergessen. Das ist der Grund, warum ich mich manchmal an solchen scheinbar unwichtigen Details aufhänge.
Interessant ist übrigens am Rand, dass das Buch fast überall sehr gut besprochen wurde (u.a . FAZ). Es gibt eine Kurzkritik bei Amazon, die ebenfalls kritisch ist und sofort schlechter bewertet wurde.
–
Über den Erfolg und Misserfolg der Videoüberwachungen in Grossbritannien habe ich durchaus auch schon andere Berichte gehört. Dort, wo ein Mensch vor dem Bildschirm sitzt und als eine Art »Big Brother« die Leute unmittelbar auf Ordnungswidrigkeiten anspricht, soll es durchaus Erfolge geben. Die Frage ist natürlich, ob man sowas will. Abgesehen davon ist das viel zu teuer.
Der Überwachungswahn in Grossbritannien treibt seltsame Blüten. Einerseits wird dort alles gefilmt (ausgewertet wird es nie; nur bei einer Tat), andererseits gibt es Stadtviertel bspw. in Liverpool, in denen sich der Staat/die Stadt vollkommen zurückgezogen hat und der Mob (organisierte bzw. halborganisierte Kriminalität) regiert.
Affekttaten wird man natürlich nie ausschliessen können, wobei natürlich alleine das Wissen um die Möglichkeit, sofort als Täter identifiziert zu werden, präventive Wirkung haben kann (und auch haben wird). Im Gegenzug werden Berufsverbrecher natürlich auch »aufrüsten« und dafür Sorge tragen, ihre DNA nicht an Tatorten zu hinterlassen.
Die Prohibition ist ein gutes Beispiel für Repression, die tief in die alltäglichen Gewohnheiten der Leute eingreift und scheitern muss. Der landläufige Schluss, dass die Prohibition in den USA den Alkoholkonsum gefördert habe, ist mindestens ungenau (ich weiss, das hast Du nicht behauptet). Fest steht allerdings, dass die Kriminalisierung des Alkohols dem organisierten Verbrechen neue Einnahmequellen erschlossen hat.
Mit diesem Wissen müsste man die repressive Drogenpolitik längst überdacht haben und EU-weit (oder europaweit) längst bestimmte Drogen freigegeben haben. Damit würde der Anreiz der Dealer, immer neue Abhängige zu schaffen, unterbunden. Statt den Opiumbauern in Afghanistan evtl. die Felder abzubrennen, sollte man den Stoff besser legalisieren und institutionell geregelt an Süchtige ausgeben. Dann würde der Preis in den Keller fallen, die Opium-Bauern wären alleine aufgrund des Marktes gezwungen, etwas anderes anzubauen und der Westen bräuchte sich nicht als Kolonialherr aufspielen.
Ja, Köppnick
und bald werden wir dann ein tanzender Mückenschwarm in heißer Sommernacht sein! Und wer ist der Mücken Gott?
Zwei Artikel zu Thema Stromverbrauch, wobei der erste wesentlich ergiebiger ist: Fußabdruck, Backup.
Hinter der Gleichung »Qualität ist gleich Klickhäufigkeit« kann natürlich (auch) unternehmerische Logik stecken: Das was die meisten wollen (oder scheinbar wollen), das muss in der Hierarchie nach oben und man wird Nummer eins (Man denke nur wie oft ein Wikipediaartikel an erster Stelle erscheint...).