Optimizing High-Throughput Inference on Graph Neural Networks at Shared Computing Facilities with the NVIDIA Triton Inference Server

Standort
Deutsche Nationalbibliothek Frankfurt am Main
Umfang
1 Online-Ressource.
Sprache
Englisch

Erschienen in
Optimizing High-Throughput Inference on Graph Neural Networks at Shared Computing Facilities with the NVIDIA Triton Inference Server ; volume:8 ; number:1 ; day:18 ; month:7 ; year:2024 ; pages:1-14 ; date:12.2024
Computing and software for big science ; 8, Heft 1 (18.7.2024), 1-14, 12.2024

Urheber
Savard, Claire
Manganelli, Nicholas
Holzman, Burt
Gray, Lindsey
Perloff, Alexx
Pedro, Kevin
Stenson, Kevin
Ulmer, Keith
Beteiligte Personen und Organisationen
SpringerLink (Online service)

DOI
10.1007/s41781-024-00123-2
URN
urn:nbn:de:101:1-2410080801001.196580929387
Rechteinformation
Open Access; Der Zugriff auf das Objekt ist unbeschränkt möglich.
Letzte Aktualisierung
15.08.2025, 07:20 MESZ

Datenpartner

Dieses Objekt wird bereitgestellt von:
Deutsche Nationalbibliothek. Bei Fragen zum Objekt wenden Sie sich bitte an den Datenpartner.

Beteiligte

  • Savard, Claire
  • Manganelli, Nicholas
  • Holzman, Burt
  • Gray, Lindsey
  • Perloff, Alexx
  • Pedro, Kevin
  • Stenson, Kevin
  • Ulmer, Keith
  • SpringerLink (Online service)

Ähnliche Objekte (12)