Optimizing High-Throughput Inference on Graph Neural Networks at Shared Computing Facilities with the NVIDIA Triton Inference Server
- Standort
-
Deutsche Nationalbibliothek Frankfurt am Main
- Umfang
-
1 Online-Ressource.
- Sprache
-
Englisch
- Erschienen in
-
Optimizing High-Throughput Inference on Graph Neural Networks at Shared Computing Facilities with the NVIDIA Triton Inference Server ; volume:8 ; number:1 ; day:18 ; month:7 ; year:2024 ; pages:1-14 ; date:12.2024
Computing and software for big science ; 8, Heft 1 (18.7.2024), 1-14, 12.2024
- Urheber
-
Savard, Claire
Manganelli, Nicholas
Holzman, Burt
Gray, Lindsey
Perloff, Alexx
Pedro, Kevin
Stenson, Kevin
Ulmer, Keith
- Beteiligte Personen und Organisationen
-
SpringerLink (Online service)
- DOI
-
10.1007/s41781-024-00123-2
- URN
-
urn:nbn:de:101:1-2410080801001.196580929387
- Rechteinformation
-
Open Access; Der Zugriff auf das Objekt ist unbeschränkt möglich.
- Letzte Aktualisierung
-
15.08.2025, 07:20 MESZ
Datenpartner
Deutsche Nationalbibliothek. Bei Fragen zum Objekt wenden Sie sich bitte an den Datenpartner.
Beteiligte
- Savard, Claire
- Manganelli, Nicholas
- Holzman, Burt
- Gray, Lindsey
- Perloff, Alexx
- Pedro, Kevin
- Stenson, Kevin
- Ulmer, Keith
- SpringerLink (Online service)