Charge des machines - Réseaux - Systèmes & Réseaux Pro
Marsh Posté le 22-07-2010 à 21:34:20
De voir déjà sur quel OS tu travailles
Marsh Posté le 23-07-2010 à 08:18:38
et surtout, en fonction des applications qui tournent dessus, cela peut ne rien dire du tout....
Exemple : Une application qui fait essentiellement des accès disques va ramer à mort, et ca ne se verra pas
Marsh Posté le 23-07-2010 à 08:38:45
couak a écrit : et surtout, en fonction des applications qui tournent dessus, cela peut ne rien dire du tout.... |
Exactement. c'est le principe du facteur limitant :
http://fr.wikipedia.org/wiki/Loi_d [...] le_minimum
Selon tes applis, c'est le proc, les disques, la RAM, le réseau,... qui va être le facteur limitant.
Nous avons eu le cas sur des serveurs web qui affichaient des photos pour notre site : c'est un gros bi-xeon 5600, avec 4 Go de RAM.
Le CPU tournait a à peine 5% mais le serveur s'est mis à ramer et les images ne s'affichaient plus. En fait c'était les disques qui ne suivaient plus.
@+
Fred
Marsh Posté le 23-07-2010 à 10:20:06
intéressant cette histoire de facteurs limitant, existe-t-il des représentations au niveau informatique ?
L'idée du tonneau est sympa, mais je vois pas comment je pourrais le représenter pour une application qui rame parce qu'elle n'utilise qu'un coeur de processeur alors qu'on lui met sous le nez plusieurs coeurs
Marsh Posté le 23-07-2010 à 10:35:28
couak a écrit : et surtout, en fonction des applications qui tournent dessus, cela peut ne rien dire du tout.... |
fred34 a écrit : |
Oui c'est vrai ! Vous avez raison.
J'ai travaillé avec un intergciel développé par l'ens-lyon. Il faisait à l'époque le choix des machines en fonction des ressources libres.
J'ai su après qu'il cherchait à integrer un module qui optimise l'ordonnancement en tenant compte des performances des machines:cpu,mem,... ça serait interessant de voir la suite de leurs travaux !
Le nom de l'intergiciel était DIET je crois.
Je vous remercie pour vos réponses.
@++
Marsh Posté le 23-07-2010 à 10:39:03
Le tonneau est juste une idée générale du concept ;-)
Après, chacun doit établir ses propres critères de valeur limite pour chaque serveur.
Par exemple, pour en revenir à nos serveurs web, par expérience (généralement malheureuse), on sait que sur nos frontaux web (ceux qui servent les pages html), dès que le cpu dépasse 50% de cpu, ça va ramer.
Marsh Posté le 23-07-2010 à 10:50:57
Le réseau ou les disques ne saturent pas à ce moment là ?
Marsh Posté le 23-07-2010 à 10:57:31
50% de CPU, c'est qu'il ne fonctionne pas a fond .. Si ca rame, ca vient d'ailleurs ... Peut etre que ton 50% CPU est également lié à des IO importants au niveau disques et/ou une utilsation RAM importante ..
Un CPU à 50%, c'est rien du tout ...
Marsh Posté le 22-07-2010 à 16:21:33
Je travaille actuellement sur les performances des machines sur un réseau.Les outils de monitoring donnent des informations sur la chargecpu, la mémoire, la bande passante.... Enfin plusieurs informations. Je me suis posé la question si c'est pas possible d'entrer toutes ces valeurs dans le calcul d'une seule qui va nous donner l'état précis de la machine. Je pensais au début à attribuer des coefficients à chaque valeur genre : charge synthétique= coeff1*chargecpu + coeff2*chargememoire + coeff3*bandepassante......
Maintenant, je pense que ça serait mieux de convertir ces données en un temps par exemple et d'en faire la somme.
Qu'en pensez vous?