Wieviele Besucher verträgt ...

Dieses Thema im Forum "Webserver (Software): Linux, Unix, etc." wurde erstellt von MaTRiXSiX, 26. November 2003.

Status des Themas:
Es sind keine weiteren Antworten möglich.
  1. MaTRiXSiX

    MaTRiXSiX New Member

    Registriert seit:
    30. Januar 2002
    Beiträge:
    53
    Eine Frage, auf die ich bisher noch keine befriedigende Antwort erhalten hab - nicht einmal Näherungswerte:
    Ich habe einen server (Athlon 2500, Ram 1024, Linux) und mich würd interessieren, was der so an echten Besuchern bzw. Pageimpressions "verträgt".
    Auf der Kiste sind nur Projekte mit statischen HTML-Seiten, auch keine mit SSI, bloß eine Seite läuft mit Postnuke (klar, das hat schon eine Menge - auch unnötiger... - Datenbankzugriffe, leider) mit ca. 1200 Besuchern am Tag.

    Mir ist schon klar, dass da normalerweise Antworten kommen, die mit "Das kommt darauf an, ob ... , und wie ... , und wann ..." usw. beginnen. Trotzdem, vielleicht wäre es möglich, hier einige Vergleichswerte zu bekommen.
    Wieviele Besucher habt ihr auf euren Server bzw. ab wieviel habt ihr eine zweiten parallel dazu gestellt oder oder die DB ausgelagert oder ...

    Und: bringt es etwas, den RAM auf meinem Server zu vervierfachen - klar, für DB-Zugriffe immer, aber auch für das "normale Tagesgeschäft" mit den HTML-Seiten?

    (Ich hoffe, die Frage steht im richtigen Forum, oder hätte ich die zur Hardware stellen sollen?)
     
  2. MaTRiXSiX

    MaTRiXSiX New Member

    Registriert seit:
    30. Januar 2002
    Beiträge:
    53
    Ergänzung ...

    Worum ich diese Frage stelle:

    2 Bekannte von mir haben Server bei ***4free, auf einem sind 200000 Besucher am Tag drauf, auf dem anderen 100000.

    Und was beide Server gemainsam haben: laufen untertags wunderbar, aber sie bleiben um Punkt 0 Uhr 5 stehen - da arbeitet Confixx seine Cronjobs ab (was da außer Webalizer noch anfällt weiß ich nicht) und schickt die Maschine ins Nirvana.

    Anschließender Reboot ist kein Problem ... - und die Kisten laufen weitere 24 Stunden, eben wieder bis 0 Uhr 5, und dann das gleiche Prozedere ...

    Jetzt denk ich mir: klar, ist eben ***4free, meiner steht beim Hetzner, ist auch ein Managed Server, hat einen dickeren Prozessor und doppelt soviel RAM, hat kein Confixx (Stats werden immer jeweils auf Bedarf erstellt), kostet andererseits aber auch um Häuser mehr - und ich würd einfach gern wissen ob ich da auch damit rechnen muss, dass er ab 100000 Besuchern beginnt rumzuspinnen.

    Weil: einen zweiten managed Dedi kann ich mir im Augenblick nicht leisten.

    Bitte keine Antworten im Stil von: "Komm, nimm dir einen Rootserver bei ... und ich mach für dich die Administration ..." - hatte ich alles schon, ich weiß, warum ich einen Managed Server genommen hab ... - aber ich würd mich über Antworten auf meine eigentlichen Fragen sehr freuen!
     
  3. droedding

    droedding Gesperrt

    Registriert seit:
    5. November 2003
    Beiträge:
    58
    Re: Ergänzung ...

    Moin,

    > Und was beide Server gemainsam haben: laufen
    > untertags wunderbar, aber sie bleiben um Punkt 0 Uhr
    > 5 stehen - da arbeitet Confixx seine Cronjobs ab (was
    > da außer Webalizer noch anfällt weiß ich nicht) und
    > schickt die Maschine ins Nirvana.

    Das deutet darauf hin, daß die Kiste ständig im "roten Bereich"
    ist und dann durch eine Peaklast in einen so hohen Rückstau
    gerät, daß sie das nicht mehr aufgeholt bekommt.

    Besonders fatal ist es, wenn gut ausgelastete Systeme zu wenig
    Hauptspeicher haben. Wenn so eine Installation ins Swapping
    kommt ist ganz schnell Schluß.

    Statische Seiten sind allgemein kein größeres Problem. Wenn
    ein 08/15-Apache nicht mehr mitkommt, dann wirft man den
    eben raus und ersetzt ihn z. B. durch einen thttpd (kostenfrei)
    oder kommerzielle Webserverprodukte.

    Generell gilt aber: weder PHP- noch Java-Systeme sind
    die Krönung der Performance. Systeme, die teilweise mehrere
    hundert Millisekunden brauchen, um eine einzelne Seite zum
    Nutzer hin zu liefern, lassen sich natürlich durch Lastpeaks
    sehr schnell in die Enge treiben. Das ändert sich auch nicht,
    wenn man den Hoster wechselt. Wer mehr Dampf braucht muß
    sich entweder überlegen, aus dem einzelnen Server eine
    Farm zu machen - oder einen Technologiewechsel vornehmen.

    > Weil: einen zweiten managed Dedi kann ich mir im
    > Augenblick nicht leisten.

    Sorry wenn es hart klingt: aber größere Projekte fordern ihren
    finanziellen Tribut. Entweder oder.

    Grüße,
    Daniel
     
  4. MaTRiXSiX

    MaTRiXSiX New Member

    Registriert seit:
    30. Januar 2002
    Beiträge:
    53
    Re: Ergänzung ...

    Klare, aber harte worte ...

    Danke!
     
  5. domainx.de

    domainx.de New Member

    Registriert seit:
    6. Mai 2001
    Beiträge:
    748
    Hallo!

    Noch ein Tipp: Nevor man jedoch gleich Geld in neue Hardware steckt, sollte man sich erstmal mit der bestehenden Konfiguration (Software + Hardware) vertraut machen.

    Dazu gehört es z.B. zu wissen, wieviel das Maximum ist. Dafür gibt es z.B. für den Apache recht gut Tools.
    Dann braucht man ein gutes Monitoring, um diese Spitzen überhaupt mitzubekommen.

    Dann sollte man sich fragen, was die Anwendungen überhaupt brauchen: viel Ram oder schnelle Festplatten.
    Beispiel: Du hast zwar ca. 5000 statische Seiten und Dateien, jedoch nur 10% davon werden in über 90% der Fälle aufgerufen. Ganz klar muss dann hier mehr Speicher her, damit die Cache-Verdrängungs-Strategie nicht so häufig zur Anwendung kommt.
    Ist es jedoch so, daß mind. die Hälfte der Dateien aus den 5000 genommen werden, so sind schnelle Festplattenzugriffe ein Muss.

    Daneben kann man aber auch erstmal den Apache um viel Ballast erleichtern und ihn vielleicht mit entspr. weniger Instanzen nur für die PHP-Dinge einsetzen und ansonsten auf khttpd zurückgreifen.

    Nächster Punkt: Datenbanken. Hier gilt an sich natürlich: mehr Ram = schneller, da mehr gecacht werden kann. Das stimmt aber nicht, wenn über 90% der Seiten statisch sind, denn dann ist die Datenbank am daherdümpeln und krallt sich viel Speicher. Auch hier hilft nur MOnitoring, um gute Testwerte herauszufinden.

    Ist die Festplatte vernünftig schnell ansprechbar? HDPARM ist Dein Freund und hilft gerne bei der Optimierung.

    Viele kurze schnelle Zugriffe? Für Eingefleischte ganz kalr ein Fall, das Linux-Zeitscheiben-Modell zu ändern. (Wobei das wirklich ans Eingemachte geht).

    Laufen unbenötigte Dienste? unnötige Festplattenzugriffe? (muss wirklich alles mitgeloggt werden?)

    PHP: Müssen wirklich alle Module mitgeladen werden und braucht man auch die 100. PHP-Erweiterung?

    Dann der Teil, den man am meisten optimieren kann: Die eigenen Skripte. Meist sind hier sowas von dermaßen schlechte SQL-Abfragen zu finden (nicht auf Dich bezogen, sondern auf einfach die Masse der "Selbstentwickler"), daß man hier locker 50% Gewinn rausholen kann, wenn man sich die Joins und Selects genau ansieht.
    Und warum muss es MySQL sein? Ja, es gibt auch schnellere (und teurere) Datenbanken. (Oracle-Nutzer wissen, was ich meine).

    Wird mod_gzip verwendet? Für große Dateien mit Sicherheit gut, aber was ist mit den kleinen HTML-Seiten? Lohnt es sich hier, oder ist die Zeit zum Komprimieren nicht so kostbar, daß es sich kaum lohnt?

    Cronjobs: Laufen die wirklich zur passenden Zeit? Wenn Sie alle immer schön z.B. jede Stunde laufen, dann ist was falsch. Verteile die Jobs auch zwischen die vollen Stunden.

    Ich glaube nicht, daß überhaupt 5% der Leser hier die eigenen Projekte dermaßen gut und bedacht entwickeln und ich möchte mich auch nicht unbedingt zu den 5% zählen (teilweise ja, teilweise nein), denn es ist die Frage: Ist es nicht günstiger, einfach mal 3 GB dazuzukaufen als 1 Tag über die Optimierung nachzudenken (bei z.B. 50€ Stundensatz immerhin 400 € pro Tag)? Daher muss man hier auch das Verhältnis berücksichtigen. Meist ist es schneller und einfacher, ein wenig aufzurüsten. Ab gewissen Größen ist dies aber nicht mehr so einfach/günstig.

    Aus eigenem Interesse sollte man aber immer die erste Lösung ausprobieren, zumal man sich dabei auch schön weiterbildet.

    mfg
    S. Winter
     
  6. mattes

    mattes Erfahrener Benutzer

    Registriert seit:
    7. Januar 2002
    Beiträge:
    1.864
    Ich habe einen Celeron 1000 mit 512 MB RAM. Der Apache liefert fast ausschließlich dynamische Seiten aus, es gibt Tausende SQL-Anfragen pro Stunde und am Tag läppert sich das ohne irgendwelche Downloads auf knapp 1GB zusammen. Das System dümpelt im Regelfall auf einer Load von unter 0.2 herum.

    Dann habe ich hier in einem Intranet noch 'ne Sun E15K die nur statisches Zeug ausliefert. Dort ist top beleidigt wenn man es für nichts aufruft. :)

    Gruß,
    Matthias
     
Status des Themas:
Es sind keine weiteren Antworten möglich.

Diese Seite empfehlen