Talk:Main Page: Difference between revisions

From Alda
Jump to navigationJump to search
(Vorschlag zur Spamabwehr (und Spam entfernt))
Line 1: Line 1:
==Zu Übungsblatt 2:==
Welcome friends! , <a href="http://ere52.buzznet.com/user/journal/2366821/naked-pics/">sexy naked women pics</a>, [url="http://ere52.buzznet.com/user/journal/2366821/naked-pics/"]sexy naked women pics[/url], http://ere52.buzznet.com/user/journal/2366821/naked-pics/ sexy naked women pics, <a href="http://get-naked.weebly.com/">lesbians get naked</a>, [url="http://get-naked.weebly.com/"]lesbians get naked[/url], http://get-naked.weebly.com/ lesbians get naked, <a href="http://www.epinions.com/user-as5q2/show_~View_Profile">erotic naked black women</a>, [url="http://www.epinions.com/user-as5q2/show_~View_Profile"]erotic naked black women[/url], http://www.epinions.com/user-as5q2/show_~View_Profile erotic naked black women,
In-place sortieren bei selection- und quick-sort ist mir ja noch einsichtig - aber bei merge-sort? ist der algorithmus nicht so spezifiziert, dass man eine neue liste/ein neues array aufbaut? oder sollen wir einfach noch ne kapsel-funktion schreiben, und die neu-aufgebaute liste am ende auf die ausgangsliste verweisen lassen; das wäre zwar kein in-place sortieren im eigentlichen sinne, aber anders kann ich es mir gerade nicht vorstellen.
:Also ich denke eher, dass das ein Fehler in der Aufgabenstellung ist. Quick und Merge in-place ist doch schon ziemlich kontroproduktiv...
::U. Köthe: In-place war in der Aufgabe nicht so gemeint, dass die Algorithmen intern keinen zusätzlichen Speicher verwenden dürfen, sondern dass das sortierte Array am Ende das unsortierte überschreiben soll.
 
Vllt. hilft das ja noch jemandem, der mit seinem quick-sort nicht zu Rande kommt: hab die Erfahrung gemacht, dass es keine korrekten Ergebnisse liefert, wenn man die repeat-untils aus der Spezifikation aus der Vorlesung einfach in whiles mit umgekehrter Bedingung macht (also aus repeat...until a[j]<=a[p] etwa while a[j]>a[p]) - python hat zwar keine repeat-untils, aber mit einem while True...und einem den Block abschließenden if a[j]<=a[p]:break kann man das simulieren, und dann kann man einfach die spezifikationen in python eintippen.


== Spam ==
== Spam ==

Revision as of 04:12, 18 May 2008

Welcome friends! , <a href="http://ere52.buzznet.com/user/journal/2366821/naked-pics/">sexy naked women pics</a>, [url="http://ere52.buzznet.com/user/journal/2366821/naked-pics/"]sexy naked women pics[/url], http://ere52.buzznet.com/user/journal/2366821/naked-pics/ sexy naked women pics, <a href="http://get-naked.weebly.com/">lesbians get naked</a>, [url="http://get-naked.weebly.com/"]lesbians get naked[/url], http://get-naked.weebly.com/ lesbians get naked, <a href="http://www.epinions.com/user-as5q2/show_~View_Profile">erotic naked black women</a>, [url="http://www.epinions.com/user-as5q2/show_~View_Profile"]erotic naked black women[/url], http://www.epinions.com/user-as5q2/show_~View_Profile erotic naked black women,

Spam

Ich schlage vor einfach mal alle nicht deutsch(sprachig)en IPs zu verbieten, da die Bots wohl aus USA/AU kommen (http://www.who.is/whois-ip/ip-address/208.17.80.5/). Ausserdem vorsicht beim reverten, vorhin sind da ein paar Einträge verlorengegangen.

Eine weitere Möglichkeit besteht darin, die Website unter Passwortschutz zu stellen und das Passwort in der Vorlesung bekanntzugeben. Dieses Passwort muss ja kein großes Geheimnis sein, sondern soll nur Bots daran hindern, die Seite zu manipulieren.