»Suchmaschine« der Zukunft
lima-city → Forum → Die eigene Homepage → Internet Allgemein
beispiel
browser
dienst
ergebnis
freiheit
geld
http
idee
index
leute
machen
manipulation
netzwerk
problem
rechner
suchmaschine
unternehmen
url
welt
zukunft
-
In letzter Zeit liest man häufig Schlagzeilen wie »VG Media verklagt Google und verlangt elf Prozent vom Umsatz«, vom »Recht auf Vergessen« und zwischendurch mal sowas:
Der Supreme Court der kanadischen Provinz British Columbia hat Google dazu verdonnert, Links auf rechtsverletzende Webseiten global aus dem eigenen Suchindex zu entfernen. (Quelle)
Doch wie soll das weitergehen? Jede dieser Entscheidungen mag ja innerhalb gewisser Grenzen sinnvoll sein, aber einige öffnen auch neue Möglichkeiten für Missbrauch zum Schaden aller (Suchmaschinen-)Nutzer und zur Untergrabung der Informationsfreiheit. Die Kanadier entscheiden also, was illegal und deshalb global nicht auffindbar ist. Aber wo anders gilt anderes Recht. Als nächstes entscheiden die Chinesen, was global nicht auffindbar ist (»Wir begehen doch keine Menschenrechtsverletzungen … diese falsche Information muss gelöscht werden!«). Und dann die Russen (»Krim? Da war nie was, war ja alles rechtlich in Ordnung → Fehlinfo unzulässig, löschen!«) … und dann? Damit entsteht auch schon die wohl wichtigste Frage: wer darf darüber entscheiden, was gefunden werden darf und was nicht? Eine zentral verwaltete Suchmaschine (»zentral« meint »von einem Unternehmen, das Einflüssen aus z.B. der Politik unterworfen ist«) wird immer mehr »zurechtgeschnitten« bis nur noch »Angenehmes« auffindbar ist und ganz nach dem Motto »was Google nicht findet gibt es nicht« weiß jeder nur noch was er wissen soll. Eine interessante, moderne Art der Zensur und Manipulation.
Beim Leistungsschutzrecht (darauf bezog sich die VG Media-Schlagzeile von oben) versucht man ja (grob gesagt) Geld von Google für das Zusammentragen und für den Leser übersichtliche Aufbereiten von Links auf Pressemitteilungen zu bekommen, wobei die Frage ist, was dabei in welcher Form herauskommen wird und wem das nützt. Jeder will für alles Geld von Google. »Du darfst keine Inhalte zeigen ohne zu zahlen, aber nix zeigen darfst du auch nicht weil du deine Monopolstellung ausnutzt« (so lesen sich zumindest derzeitige Mitteilungen zum Thema; man belehre mich eines besseren) … wie lange geht das so weiter? Irgendwann gibt es wohl nichts mehr zu suchen und finden, weil alles irgendwie rechtlich belangbar und mit viel Geld verbunden wäre und der Suchmaschinenbetreiber wohl kaum ständig mit Rechtsstreitigkeiten rechnen will – eine (halbwegs) freie Suchmaschine kann also nicht mehr betrieben werden. Also auch wieder: Kontrolle darüber was gefunden und was vergessen wird, aber diesmal für jeden erkennbar durch Geld angetrieben und geregelt.
Als Alternative gibt es den Ansatz einer »dezentralen Suchmaschine«, bei der nicht ein Unternehmen den Index erstellt und verwaltet, sondern »Peers« (= jede beliebige Person) ihn zusammengetragen und verteilt speichern, sodass kein »Beschneiden« / »Zensieren« mehr möglich ist, da jeder nur einen kleinen Teil des Indexes besitzt und jeder zum globalen Index quasi anonym beiträgt. Ein Beispiel für solch eine Suchmaschine ist yacy, doch das kann leider noch lange nicht mit Google & Co mithalten. In meinen Augen muss dieser Ansatz aber unbedingt weiter verfolgt und die Software verbessert werden, da dies die einzige Möglichkeit gegen die unangenehme und gezielte Vergesslichkeit des Internets darstellt und Suchmaschinen zum Auffinden von Informationen nötig sind; sonst haben wir wohl bald Zensur im Sinn von »was ich nicht weiß, macht mich nicht heiß« … und all die dunklen Albträume der schönen neuen Welt mit den 451°F (sogar ganz ohne Feuer) werden immer realer.
Und selbst bei dezentralen Systemen wie dem Bitcoin, der ja offensichtlich doch irgendwie funktioniert obwohl er angeblich nur als »Demonstration« einer dezentralen Währung geplant war und von keinem Staat kontrolliert wird, versucht man zu regulieren und staatlich einzugreifen. Es gibt also doch keinen Ausweg vor der Kontrolle und dem staatlichen Eingriff? (man schlage mich für den Bitcoin-Vergleich )
Ganz nebenbei überwachen uns die USA ständig und überall während Google den Terminator entwickelt (siehe »Atlas«, »Google Brain« und was sich aus der Verbindung der Beiden wohl machen lässt). Aber eventuell verstößt derartige Information ja bald gegen irgendwo geltendes Recht und muss deshalb aus dem globalen Index der zentral verwalteten Suchmaschinen geworfen werden.
Mein Text ist wohl etwas zu übertrieben und pessimistisch formuliert, aber langsam entwickelt sich die Sache in eine bedenkliche Richtung. Wie seht ihr das? Zusehen und abwarten, weil »einmal geht alles vorüber«? Oder aktiv werden und zukunftssichere Alternativen schaffen (siehe yacy)? Oder habe ich gar einen ganz wichtigen Punkt vergessen, der all die genannten Punkte nichtig macht? Ich freue mich jedenfalls schon auf (hoffentlich gute) Antworten. -
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage
-
Deine Beispiele sind allesamt gut gewählt und natürlich korrekt. Sie alle unterstreichen ein Grundproblem und zwar das folgende:
Die internationale Zusammenarbeit hat sich nicht in gleichem Maße weiterentwickelt wie es Technik und Möglichkeiten des WWW getan haben, das ist so weit nicht überraschend (wann war Politik jemals innovativ ?) ergo gibt es also keine "Dachautorität" die die "Spielregeln" für das WWW festlegen könnte und selbst wenn es Sie gäbe müsste diese Behörde derart aufgebläht sein (schließlich sollen interessen der ganzen Welt berücksichtigt werden) und wäre aufgrund der Interessensvielfalt eigentlich per Definition handlungsunfähig denn ein von zu vielen Parteien gefundener Kompromiss ist oftmals ähnlich lasch wie eine fehlende Regelung.
Die Frage der besseren Präsentation von Sucherergebnissen gegen Bezahlung an den Suchmaschinenanbieter lässt sich meiner Auffassung nach nur durch eine Maßnahme sinnvoll beantworten:
Man muss einen Suchmaschinenanbieter schaffen für den entweder eine Vermarktung nicht notwendig oder sinnvoll erscheint, eine freie Suchmaschine (im Sinne von unbeeinflusster Indezierung und ergebnispräsentation) ist hier vermutlich nur scheinbar hilfreich weil die Kosten um diese Freiheit zu erhalten und gleichzeitig ein konkurenzfähiges Angebot zu bieten natürlich vorhanden ist (egal auf wie viele Schultern man sie verteilt) außerdem dauert es nicht lang bis Versuche auftauchen werden diejenigen zu beeinflussen die den Betrieb dieser "freien" Suchmaschine sicherstellen.
dazu ein Rechenexempel:
Googles Gewinn im Jahre 2013 (und nur in 2013) betrug ca. 12,9 Mrd. US Dollar, es gab Ende 2013 ca. 7,2Mrd. Menschen auf der Welt, nehmen wir mal an das 1/4 der Weltbevölkerung (was sehr hoch gegriffen ist) irgendwie in einem hypothetischen freien Index Dienst involviert wären dann könnte Google immernoch jedem dieser 1,8Mrd. 7 US Dollar zahlen damit Sie nicht mehr an dem freien Index Dienst teilnehmen und das ist für viele Menschen auf der welt eine Menge Geld (und Google kann das endlos, weil das nur den Gewinn auffressen würde und der steigt stetig)
Trotzdem stimme ich zu das ein dezentraler Ansatz zur Bereitstellung von (unbeeinflusten) Suchergebnissen unbedint eine Idee zur Lösung des Dilemas ist, ich sehe aber einige entscheidende Schwierigkeiten:
a) Angenommen wir teilen den Suchindex auf alle zum Zeitpunkt X im WWW verfügbaren Rechner auf (bspw. indem man jeweils ein Index Fragment über die DNS Server verteilt) wie verhindert man das nicht einzelne Teilnehmer ihre Fargmente manipulieren ?
b) Welche Instanz soll die Suchergebnisse ausliefern, schließlich ist eine Manipulation nicht nur beim Indezieren sondern vor allem beim ausliefern der Ergebnisse möglich
c) Wie löst man die höchstwahrscheinlich existierenden Performance probleme und verhindert zu viel Traffic (der ja potentiell Geld kostet)
Was kann man als kleiner User jetzt tun damit 1984 nicht real wird und das auch noch ohne das irgend jemand die Gelegenheit bekommt Verdacht zu schöpfen ?
Nun ja, das haushalten mit Daten wäre ein Anfang, alles was man über sich an marketingtechnisch verwertbaren Informationen kampflos preis gibt steigert den Gewinn von Unternehmen wie Google oder Facebook, und das steigert wieder die Höhe der Bestechungssumme mit der man in der Lage ist einem potentiellen Konkurenten Steine in den Weg zu legen (nur so ein Gedanke: Google wäre gut in der Lage die Jahresproduktion geeigneter Netzwerkhardware aufzukaufen nur um durch die steifgenden Preise zu verhinddern das ein Konkurent in die Lage versetzt wird seine Kapazitäten auszubauen)
Lasst euch nicht tracken, blockiert Werbung, mistraut Autoritäten, nutzt alternative Suchanbieter, Nutzt nicht Google um auf einer Seite zu suchen sondern verwendet die oft vorhandene eigene Suche des Anbieters (natürlich nur wenn diese nicht von google angeboten wird (was mitunter gar nicht so einfach rauszufinden ist), Meidet soziale Netzwerke (sucht euch reale Freunde) Meidet Zusatzteinste wie Übersetzter und Co. (lernt eine Sprache oder nutzt freie Anbieter) speichert keine Bookmarks, verschlüsselt eure E-Mails die Liste ließe sich unendlich fortsetzen...entwickelt Datenschutzbewußtsein, das argumet wer nichts zu verbergen hat hat nichts zu befürchten zählt hier nicht, wer nichts zu verbergen hat von dem ist schon alles bekannt stimmt in dieser Hinsicht eher.
Seid ihr ein Hacker oder wollt einer werden? Habt Ihr Spaß an Softwareentwicklung? Steht ihr auf (eure) Freiheit? Unterstützt Projekte die eure Freiheit schützen, schreibt keine iOS oder Android Apps, entwickelt mit an freien Smartphone alternativen, schickt keine Witzchen über Facebook um die Welt sondern helft die Datenkraken auszurotten.
Beitrag zuletzt geändert: 21.6.2014 10:51:44 von fatfox -
Das ist ja alles schön und gut, aber eure Alternativen haben alle die Voraussetzung, dass sich Leute dafür auch interessieren - und der Anteil der Leute, die sich für Alternativen interessieren, ist sehr klein (im Vergleich zu den gesamten Nutzern von Google).
Google hat es auch nur zur N°1 geschafft, indem es von Investoren Geld bekommen hat. (Es gab ja schon vor Google Suchmaschinen, die in den Anfangsjahren von Google viel größer als Google waren) Ohne Geld oder einen großen Anteil von Menschen die Alternativen unterstützen, gibt es keine Möglichkeit, das Monopol von Google zu brechen.
Außerdem sind viele der Unternehmen, die gegen Google arbeiten, auch nicht viel besser - eine Organisation wäre wohl die beste Lösung ... -
Hallo
webfreclan schrieb:
Das ist ja alles schön und gut, aber eure Alternativen haben alle die Voraussetzung, dass sich Leute dafür auch interessieren - und der Anteil der Leute, die sich für Alternativen interessieren, ist sehr klein (im Vergleich zu den gesamten Nutzern von Google).
Eben, keinen interessiert es. Die Leute lassen es halt mit sich machen. Aber wo ist das Problem? Wir müssen deren Angebote ja nicht nutzen.
Domengo.de ist übrigens eine einigermaßen gute Suchmaschine (basierend auf Yacy?).
mfg -
Dass es niemanden interessiert, glaube ich nichtmal. Es weiß aber niemand so recht, wie man sich dagegen wehren soll. Denn ein Großteil dessen, was man benötigt, wenn man sich online bewegt, wird mittlerweile von Google angeboten. Google wächst zusehends und schluckt eine Vielzahl von guten Anbietern. Wer also nicht programmieren und sich somit alle benötigten Programme selbst erstellen kann, bräuchte Alternativen, die zu finden garnicht so einfach ist. In seinen Anfängen war das Internet als freier Raum gedacht, eine Verbindung der ganzen Welt ohne sich von seinem realen Standort zu entfernen. Mittlerweile ist es zu einem Eingriff in die geistige Freiheit und einer Datenerfassungsmaschinerie geworden, der man sich eigentlich nur entziehen kann, wenn man alles selbst programmiert oder sich aus dem Internet zurück zieht.
Die eine Suchmaschine der Zukunft sehe ich nicht, aber eine Weltorganisation vieler kleiner, in ihr zusammengefasster unabhängiger (gibts die/kann es die noch geben?) Suchmaschinen könnte diesen Zweck erfüllen, eine Dachorganisation, die sich selbst finanziert, eventuell auch aus den Spenden derer, die Wert auf Freiheit und Datenschutz legen.
-
faolan schrieb:
Ich auch nicht, aber eine Idee für die Zukunft.
Die eine Suchmaschine der Zukunft sehe ich nicht.
Yacy ist für mich in einem zu frühen Stadium und vom Programmaufbau für mich nicht das richtige. Aber von der Idee her alle Male. Bei Google gibt es bei mir eine Hassliebe. Ich liebe die ganzen Produkte, theoretisch, wenn ich alle negativen Aspekte weg lasse. Android mag ich zwar nicht umbedingt, aber so ziemlich alles andere. Nur weiss ich mehr oder weniger leider auch, wie da alles gehandhabt wird. Das ist aber leider nicht nur bei Google so, sondern bei allen Diensten. Eher noch schlimmer.
Yacy läuft auf dem Mac einfach schrecklich. Das Programm muss immer laufen, obwohl man das als Backgroundanwendung schreiben hätte können. Der Aufbau gefällt mir auch nicht wirklich, aber darüber hätte ich hin weg sehen können. Ich finde die Idee wirklich klasse und wollte diese auch direkt unterstützen, aber so eben noch nicht.
Und ich bin nicht der Meinung, dass man Google nur mit Geld schlagen kann. Man muss ja auch nicht umbedingt Google verdrängen, es reicht doch, wenn für alle, denen das reicht eine gute Alternative geboten wird. Wem die ganze Handhabung egal ist, der kann von mir aus auch nutzen was er mag. -
Hier wurden mittlerweile mehrere Dinge angesprochen, aber zuerst mal zur »Suchmaschine«:
fatfox schrieb:
Das ist das derzeitige Problem vom verteilten Ansatz, der auch gut am Beispiel yacy nachvollzogen werden kann. Dort wird genau aus diesem Grund wahlweise jedes erhaltene Suchergebnis vom lokalen Rechner überprüft, was aber nutzlose Last erzeugt und sich für verschiedenstes missbrauchen lässt.
a) Angenommen wir teilen den Suchindex auf alle zum Zeitpunkt X im WWW verfügbaren Rechner auf (bspw. indem man jeweils ein Index Fragment über die DNS Server verteilt) wie verhindert man das nicht einzelne Teilnehmer ihre Fargmente manipulieren ?
b) Welche Instanz soll die Suchergebnisse ausliefern, schließlich ist eine Manipulation nicht nur beim Indezieren sondern vor allem beim ausliefern der Ergebnisse möglich
Bei dezentralen Systemen bleibt wohl nicht viel Alternative als man z.B. vom TOR-Netzwerk oder eben yacy kennt: man braucht irgend eine Art Client, die am lokalen Rechner läuft und direkt am Netzwerk teilnimmt, ganz ohne dem Umweg einer »ausliefernde Instanz«, die von irgendwem kontrolliert wird. Ansonsten bringt der dezentrale Ansatz überhaupt keinen Vorteil gegenüber aktuellen Suchmaschinen.
c) Wie löst man die höchstwahrscheinlich existierenden Performance probleme und verhindert zu viel Traffic (der ja potentiell Geld kostet)
Das ist kein allzu großes Problem, entsprechende Technik (DHT) existiert und wird bei verschiedensten Diensten und Systemen erfolgreich eingesetzt (z.B. BitTorrent, Freenet oder auch das GlusterFS-Dateisystem nutzen DHT).
webfreclan schrieb:
… was aber nicht unbedingt die endgültig beste Lösung ist, da die Technik dahinter dadurch nicht »sicher« (gegen Manipulation usw) sein muss, was bei einem dezentralen System, das von niemandem verwaltet wird allerdings sehrwohl der Fall ist, da es sonst maximal ein Prototyp bleibt, der sich in der »bösen Welt« nicht einsetzen lässt. Auf die Organisation, oder die Leute, die dahinter stecken, kann man einwirken um irgendwas zu bewzecken, auf sichere Technik hingegen schwieriger.
Außerdem sind viele der Unternehmen, die gegen Google arbeiten, auch nicht viel besser - eine Organisation wäre wohl die beste Lösung ...
voloya schrieb:
Das nutzt offenbar den »Freeworld«-Index, also ja, aber das heißt lange noch nicht, dass alles was sich darüber finden lässt auch von Freeworld kommt. Das ist auch schon wieder ein Problem: jeder kann zwar den Index anzapfen, aber Leute finden, die ihn aktuell halten und beitragen ist schon wieder schwieriger.
Domengo.de ist übrigens eine einigermaßen gute Suchmaschine (basierend auf Yacy?).
faolan schrieb:
Auch hier wieder: Problem des zentralen Punktes der Verwaltung (Dachorganisation). Schlimmer wäre aber, wenn es lauter kleine Suchmaschinen gibt, denn dann muss jede immer aktuell gehalten werden … man sieht ja schon wie sowas derzeit aussieht: Google als brauchbarste Suchmaschine, ein paar Alternativen, die nicht unbedingt welche sind und ein Haufen kleine, die im Alltag eigentlich unbenutzbar sind.
Die eine Suchmaschine der Zukunft sehe ich nicht, aber eine Weltorganisation vieler kleiner, in ihr zusammengefasster unabhängiger (gibts die/kann es die noch geben?) Suchmaschinen könnte diesen Zweck erfüllen, eine Dachorganisation, die sich selbst finanziert, eventuell auch aus den Spenden derer, die Wert auf Freiheit und Datenschutz legen.
c143 schrieb:
Unter Linux läuft das als Dienst (bei richtiger Konfiguration), aber richtig erkannt, lauter Details, die nicht überall passen. Das Problem ist nur: es gibt nicht wirklich etwas besseres als Alternative, was die selbe Idee verfolgt oder ähnliche Techniken einsetzt. Und es gibt auch keinen, der viel Geld in derartige Technologie investiert und sie rasch weiterentwickelt, so wie es z.B. bei Google der Fall ist. Aber von alleine entwickelt sich nun mal nichts.
Yacy läuft auf dem Mac einfach schrecklich. Das Programm muss immer laufen, obwohl man das als Backgroundanwendung schreiben hätte können.
Und dann noch das Thema »Datensammelwut« usw, das hier ganz nebenbei entstanden ist:
Natürlich ist es oberstes Ziel so wenig Daten wie mögich preiszugeben und alle Dienste im Internet nur so weit zu nutzen wie unbedingt nötig, um der Datensammelwut gewisser Organisationen, Einrichtungen und Dienste möglichst weit entgehen zu können. Aber auch wenn man das versucht: irgendein »Bekannter« hinterlegt ziemlich sicher in seinem Google-Konto meinen Namen + Bild + Telefon + Adresse, womit ich für Google »bekannt« bin. Oder markiert gar den Bildbereich, auf dem ich sichtbar bin, auf Bildern, die er über Facebook »teilt« (also für jeden zugänglich macht, obwohl ich eventuell nicht einmal davon weiß). Wer heute also noch glaubt, Google & Co vollständig entgehen zu können, nur weil er es selbst nicht nutzt, der irrt sich (leider) sehr.
Und das Abschöpfen aller Daten fängt ja gerade erst an, das von manchen herbeigesehnte und von vielen vorhergesagte »Internet der Dinge« soll ja auch irgendwann kommen … wer dann noch worüber welche Kontrolle hat kann man sich denken. Eine grauenhafte Vorstellung … aber das eröffnet für findige Leute natürlich auch ganz neue Möglichkeiten, was man mit derartiger »Infrastruktur« anstellen kann -
Ich sehe das sehr ähnlich, da steht alles gerade erst auf anfang und das wird noch viel wildere Dimensionen annehmen, totale subjektbezogene Personalisierung des ganzen Internetes was es zudem auch immer unerträglicher macht - aber da stehen wir wirklich noch am Beginn, es bleibt abzuwarten, eingrenzen lässt sich das Ganze eh schon lange nicht mehr!
-
Ich könnte mir bei YaCy eine ähnliche Lösung wie TOR vorstellen: direkt in den Browser integrieren. Ich surfe im Web und indiziere Webseiten, während ich auf diesen surfe. Jetzt gerade zum Beispiel ! Ich surfe auf Lima, der Browser bemerkt "Oh, 10 mal das Wort 'Suchmaschine' gefallen" -> indiziert. Damit ich jetzt natürlich keinen Index meiner eigenen Aktivität auf meinem lokalen Rechner anlege, werden meine eigenen Ergebnisse sofort an andere Rechner im Netzwerk verteilt und ich erhalte im Gegenzug die Ergebnisse der anderen für meinen lokalen Index. Auf diese Weise könnte eine Diffusion geschaffen werden, die unmöglich manipuliert werden könnte.
Weiter zum Thema Manipulation: Ja, ich kann meinen lokalen Index manipulieren. Aber Probleme dieser Art gibt es schon lange und Lösungen ebenso. Wieso macht man aus einer Anfrage an das Netzwerk nicht 3, die jeweils an zufälligen Gegenstellen beginnen und vergleicht dann die Ergebnisse, ob zufällig einer davon anders ist als die beiden anderen ? Dann könnte man immernoch einfach nochmal einen Anfragedrilling starten und würde "durch Zufall" wohl kaum nochmal einen manipulierten Index erwischen. Hier sei allerdings angemerkt, dass ich wohl besser von Index-Ketten hätte sprechen sollen, da jeder Index ja nur eine Untermenge des Gesamtindexes darstellt, der sich unter Konsultation weiterer Rechner im Netzwerk überhaupt zum Gesamtindex rekonstruieren lässt.
Wollte man ein derartig aufgebautes Netzwerk gezielt manipulieren, so müsste man eine ungeheure Menge manipulierter und in sich konsistenter Index-Manipulationen in das Netzwerk einschleusen. Eine Menge, die wohl nur ein Botnetz liefern kann, wenn überhaupt. Deshalb halte ich die Warscheinlichkeit für eher gering. Und wenn die Gefahr zu groß wird, skaliert man eben. Dann macht man aus 3 unabhängigen Prüfanfragen eben 5 ! Oder 10 ! Oder 100 ! Und jedes mal wächst die Menge an Indizes, die manipuliert sein müssten, bis es schließtlich (wie man so schön sagt) nicht mehr lohnend ist überhaupt einen Manipulationsversuch zu unternehmen.
Unabhängig davon könnten manipulierte Indizes über ein Punktesystem in ihrer Vertrauenswürdigkeit degradiert und aus dem System ausgeschlossen werden, was zusätzlich Betrugsversuche einschränkt.
Und natürlich bedürfen all diese Dinge Rechenaufwand, das habe ich nicht außer Acht gelassen, aber als Hintergrund-Dienst ließe sich dies realisieren, oder eben als Browser-Plugin, das dann mit verminderter Thread-Priorität asynchron arbeiten würde. Ich bin da optimistisch. -
vampiresilence schrieb:
Ich könnte mir bei YaCy eine ähnliche Lösung wie TOR vorstellen: direkt in den Browser integrieren. Ich surfe im Web und indiziere Webseiten, während ich auf diesen surfe. Jetzt gerade zum Beispiel ! Ich surfe auf Lima, der Browser bemerkt "Oh, 10 mal das Wort 'Suchmaschine' gefallen" -> indiziert. Damit ich jetzt natürlich keinen Index meiner eigenen Aktivität auf meinem lokalen Rechner anlege, werden meine eigenen Ergebnisse sofort an andere Rechner im Netzwerk verteilt und ich erhalte im Gegenzug die Ergebnisse der anderen für meinen lokalen Index. Auf diese Weise könnte eine Diffusion geschaffen werden, die unmöglich manipuliert werden könnte.
Es ist lustig, wenn leute sich nicht über das Informieren, worüber sie reden... Yacy ist ein PROXY über welchen du dann surfst, der die von dir angesurften Webseiten trackt, indexiert und zur Verfügung stellt..
Zusätzlich kann man noch Webcrawler beschäftigen, um seinen Index zu füllen, allerdings ist es per default nur das, was du besuchst + das gesharte.
Ein Problem ist unter anderem die Datenmenge. Ich glaube nicht, dass du einen Index auch nur ansatzweise der Größe von iXQuick beispielsweise auf deinem Rechner halten kannst. Praktisch ist die Suche also immer sehr lückenhaft.
Die Suche ist immer auf dich und dein Suchumfeld beschränkt, auf das dir bekannte, selbst mit Crawling. Neue Informationen sind so nicht sehr einfach zu finden.
Ich persönlich bevorzuge Google und Metacrawler, jenachdem um was es geht. Die Suchmaschine der Zukunft wird höchstwahrscheinlich Metacrawler sein. Metacrawler ist einfach eine Zusammenfassung von anderen Suchmaschinen, und bedient sich einer Relativindexierung aus der Sammlung von verschiedenen Diensten, welche bisher immer recht gute Ergebnisse gebracht hat.
Ansonsten wird es eng. Wir BRAUCHEN Unternehmen wie Google. Ohne geht es nicht. DuckDuckGo hat mir bisher nie geholfen, immer miese Ergebnisse, Bing ist ganz brauchbar, iXQuick nichtmal ansatzweise, Metacrawler ganz gut, Yahoo auch relativ ok. Gibt noch Welten mehr, aber ich hab nicht alle benutzt.
Die Zukunft ist eine Sammlung von Informationen, die wir sortieren und indexieren MÜSSEN, und da macht Google einen sehr guten Job. Leider geht es auch um Geld, und naja, wo Geld ist, ist auch neid, und damit der Untergang..
Liebe Grüße -
Es wäre so schön wenn wir eine Suchmaschine hätten die Google etwas Konkurrenz machen könnte... Monopolen sind wirklich wirklich ungesund für eine Gesellschaft... und wie langen hat Google diesen Thron schon? ZU LANGE!
-
Diskutiere mit und stelle Fragen: Jetzt kostenlos anmelden!
lima-city: Gratis werbefreier Webspace für deine eigene Homepage