Datacenter sur GPU

Bonjour,

Avec l’arrivé de HSA, de CPU avec beaucoup de coeur, l’exploitation de GPU via des binaires, … et pour ne pas avoir de point de congestion, il deviens intéressant de mettre non pas toutes les vm sur tout les CPU, mais les vm sur un groupe de CPU définit, cela améliore la localité des données réduit la bande passante inter-coeur (seul les CPU proche communique), réduit les changements de contexte (moins de bande passante mémoire et une meilleure mise en cache dans le L1/L2 du cpu) et limites les ressources de la vm sans surcharge d’un ordonnanceur devant gérer les taches en compétitions.

Les GPU ont facilement 4000 coeur, mips I-Class I6500 aura 384 coeur, donc nous allons vers des hébergements moins puissant en mono-coeur, mais plus puissant en multi-coeur, ce qui ne vas pas sans crée des problèmes quand les personnes demandes pourquoi leur site (mal optimisé) est plus lent (sur une page).

Je suis encore sur le développements des concepts:

http://catchchallenger.first-world.info/wiki/Virtual_machine_on_GPU

Par exemple un noyau maitre (GNU/Linux) et des noyaux esclaves gérant leur zone (hdd via 3gp ou NFS, …).

Voir cela comme un réseau locale de serveurs, répartir la charge de tout les sites sur tout les serveurs pour essayer d’exploiter tout les cpu n’as pas de sens, il faut envoyer toutes les données sur tout les serveurs, les traiter, les fusionner, … changement de site, tout recharger, saturation du réseau, …

C’est mieux de mettre un groupe de site par serveurs.

C’est la même chose en local dans un GPU, un serveur multi socket. Sans parler des études démontrant que la bande passante mémoire par cpu diminue pour avoir plus de cpu.

Nvidia gp104 gpu die

En programmation en multi-CPU, on utilise en générale des verrous/entier atomiques, ce qui deviens rapidement pénalisant et empêche l’exploitation du multi-coeur.

Si par contre la base de donnée est sur un coeur et l’application (page web php?), ce sont des queues nativement qui sont utilisé (Socket TCP, Socket Unix) ce qui permet d’éviter les blocages pour attente de la mémoire principal. Les taches (traitement sur les données) sont vraiment indépendante, et une tache pas codé (php lent) ne ralenti pas le hardware.

L’exploitation du multicoeur au niveau de l’hébergement n’est pas la même que au niveau du logiciel. Elle demande un minimum de bon sens. Certain diront: je veux tout les CPU sur toutes les machines virtuelle, même si le prix est peu de performance… d’autre: je veux pas optimiser mon site web, le hardware doit me donner plus de puissance, …

L’exploitation commercial de ces concept ce traduit en bolivie avec l’ouverture de mon datacenter avec 50 serveur pour commencer avec une architectures traditionnelle, mais surement l’exploitation de mips I-Class I6500, GPU ou Cavium ThunderX. Le tout en linux et 100% libre, sans routeur administrable mais avec tout les functions de ces derniers via la virtualisation vm et réseau et du PaaS (VPS). Au programme IPv6, tunneling + compression, pearing et industrialisation maximum comme ovh.