Serverprobleme
Isses denn so schlimm dass man nimmer auf die Seite kommt ? Verdammt.
Ich habe jetzt etwas am Toplistskript herumgebastelt, damit es nicht mehr ganz so viel zu tun hat. Ich würde nämlich wenn es geht thecrims nur ungern als Toplistseite verlieren. Immerhin verhilft der Button dort GRDB zu BEsucherzahlen weit über 2000 Usern am Tag,, das ist ja keineswegs schlecht.
Fraglich bleibt ob der Server diese 2000 Besucher verkraftet bzw. ob der The-Crims-Toplist-Button eine zu hohe Belastung für den Server darstellt. Beides kann ich mir eigentlich kaum vorstellen. Leider bekomme ich von unserem Hoster keine Antwort auf diese und ähnliche Fragen.
Ich hoffe dennoch, dass sich die Lage am heutigen Dienstag merklich entspannt. Falls nicht, müssen wir handeln.
Ich habe jetzt etwas am Toplistskript herumgebastelt, damit es nicht mehr ganz so viel zu tun hat. Ich würde nämlich wenn es geht thecrims nur ungern als Toplistseite verlieren. Immerhin verhilft der Button dort GRDB zu BEsucherzahlen weit über 2000 Usern am Tag,, das ist ja keineswegs schlecht.
Fraglich bleibt ob der Server diese 2000 Besucher verkraftet bzw. ob der The-Crims-Toplist-Button eine zu hohe Belastung für den Server darstellt. Beides kann ich mir eigentlich kaum vorstellen. Leider bekomme ich von unserem Hoster keine Antwort auf diese und ähnliche Fragen.
Ich hoffe dennoch, dass sich die Lage am heutigen Dienstag merklich entspannt. Falls nicht, müssen wir handeln.
-
Gast
Seite lädt langsam, aber sie lädt wenigstens... hatte heute schon Phasen, in denen man von einem "Normalen Betrieb" sprechen könnte. Leider war das bisher noch kein Dauerzustand. Die Ladezeiten variieren von zu hoch bis normales GRDB-Niveau, allerdings eher noch mit der Tendenz zu hoch.. Allerdings würde ich sagen mit der Zeit scheint es sich vielleicht wieder einzupendeln. Jedenfalls kann man wieder ohne Datenbankfehler posten (:
Heute hatten wir leider wieder einen Ausfall. Der Server lief von 02:00 bis 14:00 Uhr nicht.
Ursache war wohl mal wieder der angeschlossene DNS-Server, der unsere Adresse partout nicht kennen wollte. Schade eigentlich.
Für alle Statistiker unter uns: Die komplette Ausfallzeit seit dem Umzug zu unserem Sponsor beträgt:
04.07. 08 Stunden/Serverproblem
06.07. 24 Stunden/DNS
07.07. 23 Stunden/DNS
24.07. 24 Stunden/Server überlastet
25.07. 12 Studnen/Server überlastet
15.08. 12 Stunden/DNS
Nicht erwähnen will ich die permanenten Aussetezr (Seite nicht gefunden), die andauernd stattfinden, für die ich aber keine Erklärung habe.
Macht summa summarum 103 Stunden. Übrigens: Der Zeitraum Juni bis Mitte August hat 1824 Stunden. Das macht einen prozentualen Ausfall von 5,65 Prozent.
Ursache war wohl mal wieder der angeschlossene DNS-Server, der unsere Adresse partout nicht kennen wollte. Schade eigentlich.
Für alle Statistiker unter uns: Die komplette Ausfallzeit seit dem Umzug zu unserem Sponsor beträgt:
04.07. 08 Stunden/Serverproblem
06.07. 24 Stunden/DNS
07.07. 23 Stunden/DNS
24.07. 24 Stunden/Server überlastet
25.07. 12 Studnen/Server überlastet
15.08. 12 Stunden/DNS
Nicht erwähnen will ich die permanenten Aussetezr (Seite nicht gefunden), die andauernd stattfinden, für die ich aber keine Erklärung habe.
Macht summa summarum 103 Stunden. Übrigens: Der Zeitraum Juni bis Mitte August hat 1824 Stunden. Das macht einen prozentualen Ausfall von 5,65 Prozent.
Nach einer wirklich langen Phase ohne Probleme gab es heute zwischen 0:00 und 12:00 heftige Probleme mit der Erreichbarkeit des Servers. Sowohl GRDB ging nicht, wie auch alle mit dem Provider verbundenen Dienste.
Grund hierfür war wohl der Ausfall des Carrier sLambdanet bei dem durch einen Ausfall eines Glasfaser Link’s Routing Probleme innerhalb des Lambdanet eigenen Netzes entstanden sind. Laut Aussage der zuständigen Administratoren waren die Backupleitungen zu 100% ausgelastet.
Grund hierfür war wohl der Ausfall des Carrier sLambdanet bei dem durch einen Ausfall eines Glasfaser Link’s Routing Probleme innerhalb des Lambdanet eigenen Netzes entstanden sind. Laut Aussage der zuständigen Administratoren waren die Backupleitungen zu 100% ausgelastet.
Heute gab es seit langer Zeit mal wieder ein ernsthaftes Problem mit dem Server. Mir macht die Datenbank etwas Sorgen, aber ich werde mal in den kommenden Tagen mit unserem Hoster reden, mal sehen, ob man da noch eine Schippe drauflegen kann.
Der Ausfall begann irgendwann in den Morgenstunden und ist erst jetzt vollständig behoben.
Der Ausfall begann irgendwann in den Morgenstunden und ist erst jetzt vollständig behoben.
Nach einer Weile ohne Probleme haben wir nun wieder eines: GRDB ist ziemlich langsam geworden.
Seit etwa 2 Tagen lahmt unser Baby doch ganz gehörig ohne dass man den Grund dafür wirklich eingrenzen könnte. Zu diesem Zeitpunkt haben wir lediglich eine neue Partnerschaft geschlossen bei der wir rund 3.000 neue Spieletests indiziert haben.
Möglich dass nun die Suchmaschinen die ganzen Veränderungen auf unserer Seite spidern und so unseren Server in die Knie zwingen.
An Quakewarsforum kanns eigentlich nicht liegen (zu wenig los) und auch Filmprinz ist erst am Anfang.
Ein Auge hab ich noch auf die Toplist, die schon immer recht ressourcenintensiv war, aber das ist eben ein notwendiges Übel.
Werde in dieser Sache noch mit Acid sprechen und ein Supportticket an den Hoster ist auch schon unterwegs, aber derzeit hab ich sonst noch keine gute Idee zu dem Problem.
Grüße
KK
Seit etwa 2 Tagen lahmt unser Baby doch ganz gehörig ohne dass man den Grund dafür wirklich eingrenzen könnte. Zu diesem Zeitpunkt haben wir lediglich eine neue Partnerschaft geschlossen bei der wir rund 3.000 neue Spieletests indiziert haben.
Möglich dass nun die Suchmaschinen die ganzen Veränderungen auf unserer Seite spidern und so unseren Server in die Knie zwingen.
An Quakewarsforum kanns eigentlich nicht liegen (zu wenig los) und auch Filmprinz ist erst am Anfang.
Ein Auge hab ich noch auf die Toplist, die schon immer recht ressourcenintensiv war, aber das ist eben ein notwendiges Übel.
Werde in dieser Sache noch mit Acid sprechen und ein Supportticket an den Hoster ist auch schon unterwegs, aber derzeit hab ich sonst noch keine gute Idee zu dem Problem.
Grüße
KK
Guten Morgen zusammen,
erstmal ein Danke an LordHellsing, der mich darauf hingewiesen hat, dass GRDB down war heute morgen (er hat mich zwar geweckt, aber das geht in Ordnung
Danke).
Problem war, dass der Webserver mit einem anderem Dienst in die Quere kam:
kill 11348 ging nicht, also härtere Bandagen:
Was gelernt ? Wäre schön.
Grüße
KK
erstmal ein Danke an LordHellsing, der mich darauf hingewiesen hat, dass GRDB down war heute morgen (er hat mich zwar geweckt, aber das geht in Ordnung
Problem war, dass der Webserver mit einem anderem Dienst in die Quere kam:
Prima. Erstmal nachschauen, welcher Dienst Port 80 blockt:(98)Address already in use: make_sock: could not bind to address [::]:80
no listening sockets available, shutting down
Und da haben wir den Übertäter:netstat -tulpn| grep :80
Erstmal inetd stoppen...tcp6 0 0 :::80 :::* LISTEN 11348/inetd
Hat nur leider nichts gebracht, weil der Prozess immernoch da war. Nach kurzem hin und her hab ich den Prozess getötet:/etc/init.d/./inetd stop
kill 11348 ging nicht, also härtere Bandagen:
Ok, Prozess tot, jetzt Apache neu starten:kill -9 11348
Und inetd wieder gestartet und schon ging es wieder./etc/init.d/./apache2 start
Was gelernt ? Wäre schön.
Grüße
KK

