Suche überarbeiten

  • Ersteller StayTuned
  • Erstellt am
Wie unfair! Koennte man das nicht z.B. fuer User ab 1000 Posts auch freischalten? :D

-edit- meinetwegen auch user ab 3042 Posts ;)
 
Die Anzahl der Posts sagt nichts über den Intellekt des Users aus. :p
Ausserdem würde das ein 2 Klassensystem mit sich bringen.

Ich denke aber, dass es ohnehin technisch nicht möglich wäre. ;)

Gruß
Dime!
 
Die Anzahl der Posts sagt nichts über den Intellekt des Users aus. :p
Ausserdem würde das ein 2 Klassensystem mit sich bringen.

Ich denke aber, dass es ohnehin technisch nicht möglich wäre. ;)

Gruß
Dime!
Ich denke, wir haben schon ein 7 Klassensystem (Admins, Mods, HCAs, HFUs, User, User ohne Signaturrechte, Gesperrte User), da kommt es auf sowas auch nicht mehr an :D ;)
 
Die Anzahl der Posts sagt nichts über den Intellekt des Users aus. :p

Es geht ja nicht um den Intellekt des Users, sondern, dass die meisten Leute, die das Musiker-Board durch Search-Spam zum Absturz/Verlangsamen bringen wollen, sicherlich nicht erst 1000 Posts verfassen um dies dann zu tun ;)...

Die Leute, die 1000 Posts verfassen, werden dann vermutlich es-gut-meinende Musiker-Board Nutzer sein :p.
 
sorry, dass ich den thread hier rauskrame, aber hab hier gerade mal ein wenig wegen der 20 sekunden regelung gesucht und nichts gescheites gefunden, ob man da etwas verbessern könnte. weil ich finde das wirklich extrem nervig, vor allem wenn man etwas sucht und nichts findet und die sucheinstellungen ein wenig verändern will oder so...
 
sorry, dass ich den thread hier rauskrame, aber hab hier gerade mal ein wenig wegen der 20 sekunden regelung gesucht und nichts gescheites gefunden, ob man da etwas verbessern könnte. weil ich finde das wirklich extrem nervig, vor allem wenn man etwas sucht und nichts findet und die sucheinstellungen ein wenig verändern will oder so...

Dann benutze doch einfach die Google-Suche
https://www.musiker-board.de/mbgoogle.html
 
die richtige sufu hat schon ein paar gute funktionen, die ich öfter mal brauche
 
Wenn ich mich recht entsinne, ist die "20-Sekunden-Blockade" aus Gründen der Server-Performance eingeführt worden.
 
Wenn ich mich recht entsinne, ist die "20-Sekunden-Blockade" aus Gründen der Server-Performance eingeführt worden.

Wobei sich da bei mir die Frage stellt, ob die Googlesuche die Datenbank nicht ähnlich belastet.
 
Also eine google-suche belastet sicherlich den server, aber nur den von google. Das ist der Vorteil für MS ;)
Oli
 
Aber auch Google greift auf die MS-Datenbank zu.

Nein, wo kämen wir da auch hin.

Google indiziert die Seiten, und trägt die Ergebnisse in eine eigene Datenbank ein.
 
Aber auch Google muss auf die DB zugreifen um zu indizieren oder irre ich da:confused:?

Google liest die fertigen Seiten aus, also das, was du auch alles sehen kannst wenn du dir diese Seiten (und deren Quelltext) anschaust. Dann werden da "unwichtige" Sachen herausgeworfen, und der Rest indiziert und nach einem Schema gewichtet, das viele gerne wüssten :)
 
Kurze Zwischenfrage: wie kann ich bei der Musikersuche im Flohmarkt eine Wildcard bei der Postleitzahl nutzen? Also in der Art: suche alle Musiker im PLZ-Bereich 67* . Scheint aktuell nicht zu gehen?

TIA,
Andreas
 
Kurze Zwischenfrage: wie kann ich bei der Musikersuche im Flohmarkt eine Wildcard bei der Postleitzahl nutzen? Also in der Art: suche alle Musiker im PLZ-Bereich 67* . Scheint aktuell nicht zu gehen?

TIA,
Andreas

Nimm "%" z.B. "A-4%".
% weil SQL-Syntax...
 
Aha! Danke! Cool wäre jetzt noch ne Umkreis-Suche, aber das wär wohl Luxus... :)
 
Dann werden da "unwichtige" Sachen herausgeworfen, und der Rest indiziert und nach einem Schema gewichtet, das viele gerne wüssten :)
Wahrscheinlich wissen es die Meisten schon: Angeblich wird nach Relevanz sortiert. Das ist aber gar nicht möglich, da das Internet dazu viel zu doof ist. Es arbeitet im Prinzip immer noch mit den aus BTX-Zeiten bekannten Seitennummern und bietet keine Möglichkeit, eine Seite dahingehend zu kennzeichnen, welcher Art die darin befindliche Information ist. Diese Kennzeichnung - und deren Abgleich mit dem Anliegen des Suchenden - wäre jedoch erforderlich, um festzustellen, ob eine Seite überhaupt ein Fünkchen Relevanz aufweisen kann. Denn oft genug ist der Suchbegriff mehrdeutig. Wenn ich z. B. sage "die Daimler-Homepage besitzt höchste Relevanz, wenn es um den Namen Mercedes geht", dann ist das etwa so richtig wie die Aussage "Agathis klingt nicht". Richtig wäre z. B. "... besitzt höchste Relevanz unter denjenigen Betreibern, die den Begriff Mercedes als Warenzeichen verwenden" oder "Agathis klingt nicht nach Carbonfiber".

Also hat man sich überlegt, ob man die Seiten nicht nach Beliebtheit oder Kompetenz sortieren könnte. Alle Seiten, die den Suchbegriff verwenden, werden ungeachtet ihrer Relevanz in einen Topf geworfen und dann innerhalb dieser Auswahl eine Gewichtung vorgenommen. Je mehr andere Seiten auf eine Seite verlinken, umso mehr Leute scheinen mit den auf der verlinkten Seite enthaltenen Informationen zufrieden zu sein. Das wissen natürlich auch Leute, die etwas verkaufen wollen. Diese melden sich gern im erstbesten Internet-Forum an, nur um dort einen Link auf ihre Homepage zu posten, und machen dasselbe Spiel noch mit weiteren Foren, die ihnen nicht am Herzen liegen. Wenn also die fiktive Pornofirma Tinkerbell es schaffen sollte, längere Zeit unentdeckt ein Forum nach dem anderen zu "kapern", erscheint sie irgendwann zuoberst in der Liste, und Leute, die etwas über die gleichnamige Zeichentrick-Elfe lesen wollen, werden in die Irre geführt. Es bedarf wohl keiner Erwähnung, dass Pornoseiten alles andere als relevant sind, wenn es um Märchenfiguren geht.

Damit eine Seite aber überhaupt gefunden wird, muss der gesuchte Begriff darin erst einmal vorkommen. Das verleitet manche Seitenbetreiber zum Keyword-Spamming. Es werden also Begriffe aufgenommen, die mit der Seite nichts zu tun haben, um möglichst viele Besucher anzulocken. Früher wurden Seiten sogar um so höher gewichtet, je öfter der Suchbegriff darin vorkommt. Das führte dann zu einer anderen Art von Keyword-Spamming, bei dem die Betreiber ihre Seiten regelrecht mit demselben Suchbegriff vollgestopft haben. Inzwischen steigt die Gewichtung zwar noch an, wenn der Begriff in einem längeren Text mehr als einmal vorkommt, aber ab einer bestimmten Häufigkeit wird von Spam ausgegangen und die Gewichtung wieder reduziert.
 
Wunderbar zusammengefasst poor but loud :)

Ein zusatz aber noch.
Google bietet eigene Webmaster tools. Das ist nur für diejenigen interesannt die selber eine seite hosten... aber vielmehr bekommt man dort genaue infos wie google funktioniert. Es gibt sogenannte richtlinien für webmaster die man einhalten muss. Und diese verbieten die ganzen tricks wie man sich höher listen kann. Allerdings fragt man sich zurecht: "Wer soll das denn überprüfen". Und da kommts: Google selber überprüft das, und zwar ziemlich gründlich. Jeder gemeldete Webmaster kann andere seiten anschwärzen. Google geht jedem hinweis nach und überprüft genannte seite ob sie den Richtlinien entspricht.
d.H. die ganzen tricks wie verschiedene wörter sinnlos auf ne seite packen und verschiedene gegenlinks zu schalten um höher eingestuft zu werden funktioniert nicht mehr.
Google kann aber leider nicht überprüfen ob links in foren etc. wirklich sinnig sind oder nicht, dafür sind die Forenbetreiber und deren Mitarbeiter (admins und mods) da.

Das wichtigste für sowas ist eigentlich mehr zu wissen wie man es legal macht, richtige sitemap, robots.txt, vernünftige alt-tags für bilder usw. hilft mehr als so ein blöder Forentrick :)
 
Kurze Zwischenfrage: wie kann ich bei der Musikersuche im Flohmarkt eine Wildcard bei der Postleitzahl nutzen? Also in der Art: suche alle Musiker im PLZ-Bereich 67* . Scheint aktuell nicht zu gehen?

Bei mir klappt das immer ohne jegliche Wildcard. In deinem Beispiel einfach im PLZ-Feld "67" eingeben und er sucht alle Inserate, die in diesem Bereich stehen.
 

Ähnliche Themen


Unser weiteres Online-Angebot:
Bassic.de · Deejayforum.de · Sequencer.de · Clavio.de · Guitarworld.de · Recording.de

Musiker-Board Logo
Zurück
Oben