Objet : Developers list for StarPU
Archives de la liste
- From: Julien Vanharen <julien.vanharen@inria.fr>
- To: Nathalie Furmento <nathalie.furmento@labri.fr>
- Cc: starpu-devel@inria.fr
- Subject: Re: [starpu-devel] MPI
- Date: Mon, 7 Oct 2024 17:58:48 +0200
- Authentication-results: mail3-relais-sop.national.inria.fr; dkim=none (message not signed) header.i=none; spf=SoftFail smtp.mailfrom=julien.vanharen@inria.fr; dmarc=fail (p=none dis=none) d=inria.fr
Bonjour,
Merci beaucoup pour votre réponse.
Je vais donner un peu contexte avant de poser mes questions.
J’aimerais utiliser StarPU dans le cadre des maillages non structurés anisotropes (principalement des tétraèdres anisotropes).
J’y vois principalement deux intérêts :
- de ne pas simplement que faire du GPU ou que CPU mais les deux à la fois pour maximiser l’utilisation des architectures hybrides,
- de bénéficier des schedulers de StarPU pour ordonnancer des tâches au runtime qui peuvent changer d’une exécution à l’autre selon les désirs de l’utilisateur.
Mes questions sont surtout sur la partie MPI car j’ai vu que StarPU l'intègre.
Je suis actuellement en train d’écrire le code nécessaire pour lire, partitionner et découper en tâches mon application le tout en MPI.
J’ai donc regarder attentivement l’exemple que vous fournissez sur le gitlab à l’adresse suivante : https://gitlab.inria.fr/starpu/starpu-applications/-/blob/master/stencil5/stencil5_starpu_mpi.c?ref_type=heads
Si j’ai bien compris, le tableau A de taille n x n semble être alloué sur chaque MPI rank.
Pour mon application, ceci est impossible car cela ne tiendrait pas en mémoire.
Est-ce nécessaire pour StarPU, une limitation ou une simplification pour les besoins de l’exemple.
De plus, le handle starPU est défini n x n fois sur chaque MPI rank. Même question.
Si j’ai bien compris, une tâche StarPU est insérée pour chaque point du stencil mais j’ai l’impression qu’il n’y a pas beaucoup de calculs.
J’avais cru comprendre que pour que cela scale, les tâches StarPU devait être de l’ordre d’au moins 1ms à cause du coût du scheduler.
Même question, une limitation de StarPU ou une simplification pour l’exemple ?
De manière générale, je me pose toutes ces questions car avec mon maillage non structuré, je n’ai pas accès à tout le maillage sur chaque rank, juste la partie que je calcule avec possiblement des cellules ghost pour un recouvrement minimal.
J’envisage d’ailleurs de définir des tâches par groupe de cellules pour avoir des tâches supérieures à la milliseconde mais faut-il faire des tâches avec que des cellules ghost ou pas ? Que préconisez-vous et quelle est votre vision de la chose ?
Je ne suis pas sûr d’être très clair dans mes questions mais je suis disponible par mail, téléphone ou visio si besoin.
Merci d’avance pour votre temps,
Très bonne soirée,
Julien
Julien Vanharen
Research Fellow
GAMMA Team
Phone: +33 1 77 57 80 87
Mobile: +33 6 60 74 88 16
Homepage: https://jvanhare.github.io
CENTRE DE RECHERCHE
SACLAY - ÎLE-DE-FRANCE
1 Rue Honoré d'Estienne d'Orves
91120 Palaiseau France
Le 7 oct. 2024 à 12:09, Nathalie Furmento <nathalie.furmento@labri.fr> a écrit :Bonjour,
ce n'est pas facile de trouver du temps, de plus vos questions ne pourront pas forcement être répondues par une même personne.
merci donc d'envoyer les questions sur cette liste, et on fera de notre mieux pour y répondre.
Amicalement,
Nathalie
Le 26/09/2024 à 14:10, Julien Vanharen a écrit :
Bonjour à tous,
J’ai suivi la formation StarPU qui a eu lieu à Saclay en mai dernier et j’ai continué mes investigations depuis.Mais il me reste des questions à propos de la gestion du MPI dans StarPU.Est-ce qu’un développeur StarPU aurait un peu de temps à m’accorder par visio ou téléphone ?
Merci d’avance,Bonne journée,Julien
Julien VanharenResearch FellowGAMMA TeamPhone: +33 1 77 57 80 87Mobile: +33 6 60 74 88 16Homepage: https://jvanhare.github.io
CENTRE DE RECHERCHESACLAY - ÎLE-DE-FRANCE1 Rue Honoré d'Estienne d'Orves91120 Palaiseau France
-- Dr Nathalie Furmento Ingénieure de recherche CNRS http://www.labri.fr/~furmento/ LaBRI - Université Bordeaux
- Re: [starpu-devel] MPI, Nathalie Furmento, 07/10/2024
- Re: [starpu-devel] MPI, Julien Vanharen, 07/10/2024
- Re: [starpu-devel] MPI, Samuel Thibault, 08/10/2024
- Re: [starpu-devel] MPI, Alfredo Buttari, 08/10/2024
- Re: [starpu-devel] MPI, Julien Vanharen, 09/10/2024
- Re: [starpu-devel] MPI, Samuel Thibault, 11/10/2024
- Re: [starpu-devel] MPI, Julien Vanharen, 09/10/2024
- Re: [starpu-devel] MPI, Alfredo Buttari, 08/10/2024
- Re: [starpu-devel] MPI, Samuel Thibault, 08/10/2024
- Re: [starpu-devel] MPI, Julien Vanharen, 07/10/2024
Archives gérées par MHonArc 2.6.19+.