TYLKO DLA WYŻSZYCH UCZELNI

SKORZYSTAJ Z OKAZJI NABYCIA PROFESJONALNEGO GPU NVIDIA RTX

Najnowsze profesjonalne karty graficzne NVIDIA® RTX™ są dostępne w specjalnych cenach!

Profesjonalne procesory graficzne NVIDIA RTX stanowią podstawę projektów związanych z fotorealistycznym renderingiem, wirtualną rzeczywistością, efektami specjalnymi, skalowalną wizualizacją i sztuczną inteligencją. Oparte są na najnowszych architekturach GPU: NVIDIA Amper i NVIDIA Ada Lovelace, które zapewniają śledzenie promieni (ray tracing) w czasie rzeczywistym, wspomaganie wizualizacji przez sztuczną inteligencję, akcelerację GPU AI/DL/ML/MV oraz analizę dużej ilości danych przy wizualizacji obliczeń.

Zalety

Najwyższa wydajność
GPU NVIDIA RTX zapewniają dużo lepszą wydajność grafiki, obliczeń (w tym związanych ze sztuczną inteligencją) niż produkty NVIDIA poprzedniej generacji dzięki większej liczbie rdzeni CUDA do prowadzenia obliczeń równoległych, dzięki wykorzystaniu liczb całkowitych i zmiennoprzecinkowych, nowszej generacji rdzeniom RT do śledzenia promieni, zaawansowanemu cieniowaniu i ulepszonych możliwościach VR. Natomiast zaawansowane rdzenie tensorowe radykalnie przyspieszają najnowsze aplikacje AI, DL, ML i analizę dużych zbiorów danych.

Szybsze przetwarzanie danych
GPU NVIDIA RTX obsługują najnowszy typ pamięci GDDR6 z ECC (Error Correcting Code) o dużej przepustowości i pojemności: od 20 GB do 48 GB (40 GB lub 96 GB z mostkiem NVLink i aplikacją, która z niego korzysta). Pamięć GPU jest szczególnie ważna w akcelerowanym przez rdzenie RT ray tracing’u w czasie rzeczywistym, który wymaga by renderowany model lub scena zmieściły się w pamięci karty. Trening AI to kolejny przykład sytuacji, w której większa pamięć GPU znacznie skraca czas szkolenia.

Zaawansowane funkcje GPU
NVIDIA RTX zapewnia najbardziej wyrafinowane możliwości graficzne i obliczeniowe, jakie kiedykolwiek oferowano. Rdzenie RT drugiej generacji oprócz fotorealistycznego renderingu w czasie rzeczywistym, w oknach aplikacji, zapewniają nowe funkcje, jak np. rozmycie ruchu. Wirtualna rzeczywistość korzysta z funkcji Variable Rate Shading i Foveated Rendering, gdy jest używana z goglami VR śledzącymi ruch gałek ocznych. Rdzenie tensorowe trzeciej generacji obsługują technologię TF32 (Tensor Float 32), która może zapewnić nawet 10-krotny wzrost wydajności bez zmian kodu, a także zaimplementować funkcję kompresji rzadkich macierzy, co pozwoli na szybsze wnioskowanie z mniejszych, w pełni wyszkolonych i wdrożonych modeli. Z punktu widzenia nauki o danych lub analizy dużych zbiorów danych NVIDIA RTX jest najlepszym wyborem do szkolenia sieci i badań naukowych.

Nieskrępowana praca
NVIDIA RTX DisplayPort 1.4A może obsłużyć do 4 wyświetlaczy 8K, podłączonych bezpośrednio, z pełną obsługą HDR (High Dynamic Range), zapewniając niezrównaną jakość obrazu i obsługę zaawansowanych symulacji, środowiska CAVE lub najnowszych gogli VR. Oprogramowanie NVIDIA RTX Desktop Manager optymalizuje wykorzystanie powierzchni ekranu na jednym lub wielu wyświetlaczach o wysokiej rozdzielczości. Karty NVIDIA RTX A6000 i RTX A4500 oferują współpracę z kartą NVIDIA Quadro Sync II, która zapewnia analogową (Genlock) lub cyfrową (Frame Lock) synchronizację sprzętową w środowisku CAVE, klastrach renderujących, interaktywnych wyświetlaczach cyfrowych i wyświetlaczach obsługujących transmisje na żywo.

4 powody, dla których profesjonalne NVIDIA GPU
to właściwy wybór dla sektora edukacji

PRODUKT NR ZAMÓWIENIOWY PAMIĘĆ GPU SZYNA PAMIĘCI LICZBA RDZENI CUDA
NVIDIA RTX 6000 ADA VCNRTX6000ADA-EDU-SB 48GB GDDR6 ECC 384-bit 18176
NVIDIA RTX A6000 VCNRTXA6000-EDU-SB 48GB GDDR6 ECC |
96GB dla 2 kart z NVLink
384-bit 10752
NVIDIA RTX A5500 VCNRTXA5500-EDU-SB 24GB GDDR6 ECC |
48GB dla 2 kart z NVLink
384-bit 10240
NVIDIA RTX A5000 VCNRTXA5000-EDU-SB 24GB GDDR6 ECC |
48GB dla 2 kart z NVLink
384-bit 8192
NVIDIA RTX A4500 VCNRTXA4500-EDU-SB 20GB GDDR6 ECC |
40GB dla 2 kart z NVLink
320-bit 7168
NVIDIA RTX A4000 VCNRTXA4000-EDU-SB 16GB GDDR6 ECC 190-bit 6144
NVIDIA RTX A2000 12GB VCNRTXA2000-12GB-EDU-SB 12GB GDDR6 ECC 160-bit 3328

 

Udostępnij na Facebook

NVIDIA CC – Przetwarzanie poufne (Confidential Computing)

NVIDIA CC – Przetwarzanie poufne

Udoskonalenie zabezpieczeń i poufne przetwarzanie danych

Dostawcy usług w chmurze (Cloud Service Providers – CSP), producenci samochodów, laboratoria krajowe, służba zdrowia, finanse oraz wiele innych branż i organizacji wymaga wysokiego poziomu bezpieczeństwa. Ogromne ilości wrażliwych danych są generowane, przechowywane i przetwarzane każdego dnia. Chociaż istnieją zaawansowane techniki szyfrowania do ochrony danych przechowywanych w pamięci masowej i przesyłanych przez sieć, istnieje obecnie duża luka w ochronie danych podczas ich przetwarzania lub używania. Nowa technologia poufnego przetwarzania danych wypełnia tę lukę, chroniąc dane i aplikacje oraz zapewniając większe bezpieczeństwo organizacjom zarządzającym danymi wrażliwymi i podlegającym państwowym regulacjom.

NVIDIA H100 zawiera szereg funkcji bezpieczeństwa, które ograniczają dostęp do zawartości GPU, zapewniając dostęp tylko upoważnionym podmiotom, zapewniając bezpieczne uruchamianie i możliwości uwierzytelniania oraz aktywnie monitorując ataki podczas działania systemu. Ponadto wyspecjalizowane, wbudowane procesory bezpieczeństwa, obsługa wielu typów i poziomów szyfrowania, chronione sprzętowo regiony pamięci, rejestry kontroli dostępu uprzywilejowanego, wbudowane czujniki i wiele innych funkcji zapewniają użytkownikom bezpieczne przetwarzanie danych.

H100 to pierwszy na świecie procesor graficzny obsługujący przetwarzanie poufne. Użytkownicy mogą chronić poufność i integralność swoich danych i używanych aplikacji, korzystając jednocześnie z niespotykanej akceleracji procesorów graficznych H100. H100 zapewnia szeroką gamę innych funkcji bezpieczeństwa w celu ochrony danych użytkownika, obrony przed atakami sprzętowymi i programowymi oraz lepszej izolacji i ochrony maszyn wirtualnych przed sobą w środowiskach zwirtualizowanych i MIG.

Główne cele wszechstronnych funkcji bezpieczeństwa GPU NVIDIA H100 obejmują:

  • Ochrona i izolacja danych: Uniemożliwianie nieautoryzowanym podmiotom uzyskiwania dostępu do danych innego użytkownika, gdy podmiotem może być użytkownik, system operacyjny, hyperwizor lub oprogramowanie sprzętowe GPU.
  • Ochrona zawartości: Uniemożliwianie nieautoryzowanym podmiotom uzyskiwania dostępu do chronionych treści przechowywanych lub przetwarzanych przez GPU.
  • Ochrona przed uszkodzeniami fizycznymi: Zapobieganie fizycznym uszkodzeniom GPU, niezależnie od tego, czy są one spowodowane przez złośliwą osobę, czy przez przypadek.

Przetwarzanie poufne NVIDIA

Formalna definicja terminu Confidential Computing to „ochrona danych poprzez wykonywanie obliczeń w środowisku sprzętowym opartym o Trusted Execution Environment (TEE)”. Definicja jest niezależna od tego, gdzie dane są używane, czy to w chmurze, czy na urządzeniach użytkowników końcowych, czy gdzieś pomiędzy. Jest również niezależna od tego, który procesor chroni dane lub jaka technika ochrony jest stosowana. C3 (Confidential Computing Consortium) definiuje TEE jako „środowisko, które zapewnia poziom pewności dla trzech kluczowych właściwości – poufności danych, integralności danych i integralności kodu”.
Obecnie dane są często chronione w stanie spoczynku, podczas przechowywania i przesyłania przez sieć, ale nie są chronione przez system operacyjny/ hyperwizora podczas ich używania. Ten wymóg zaufania do systemu operacyjnego / hyperwizora pozostawia dużą lukę w ochronie danych i kodu dla użytkowników. Ponadto możliwość ochrony danych i kodu podczas ich używania jest ograniczona w konwencjonalnej infrastrukturze obliczeniowej. Organizacje, które przetwarzają dane wrażliwe, takie jak informacje umożliwiające identyfikację osób, dane finansowe i dotyczące zdrowia, lub które są zobowiązane do przestrzegania przepisów dotyczących lokalizacji danych, muszą na wszystkich etapach ograniczać zagrożenia, których celem jest poufność i integralność ich aplikacji, modeli i danych.

Dotychczas istniejące poufne rozwiązania obliczeniowe były oparte na CPU i były zbyt wolne dla zadań wymagających dużej mocy obliczeniowej, takich jak sztuczna inteligencja i HPC. Poufne przetwarzanie oparte na CPU generalnie zmniejsza wydajność systemu, co może mieć wpływ na produktywność lub być nieopłacalne w przypadku obciążeń związanych z przetwarzaniem danych wrażliwych na opóźnienia.
Dzięki NVIDIA CC, nowej funkcji bezpieczeństwa wprowadzonej w architekturze NVIDIA Hopper, H100 jest pierwszym na świecie procesorem graficznym, który może chronić poufność i integralność zarówno danych, jak i używanego kodu. H100 wprowadza akcelerację przetwarzania do świata poufnych obliczeń i rozszerza TEE CPU na GPU. H100 otwiera drzwi do wielu przypadków użycia, w których korzystanie ze współdzielonej infrastruktury (chmura, kolokacja, edge) nie było możliwe w przeszłości ze względu na konieczność ochrony danych i kodu podczas użytkowania oraz fakt, że poprzednie rozwiązania do przetwarzania poufnego są nie jest wystarczająco wydajny lub elastyczny dla wielu obciążeń.

NVIDIA CC tworzy sprzętowe TEE, które zabezpiecza i izoluje całe obciążenie działające na pojedynczym GPU H100, wielu GPU H100 w węźle lub na indywidualnych zabezpieczonych instancjach Multi-Instance GPU (MIG). TEE ustanawia bezpieczny kanał między poufną maszyną wirtualną na GPU i jej odpowiednikiem w CPU.
TEE zapewnia dwa tryby działania:
1. Cały procesor graficzny jest przypisany wyłącznie do jednej maszyny wirtualnej (do jednej maszyny wirtualnej może być jednocześnie przypisanych wiele procesorów graficznych).
2. Procesor graficzny NVIDIA H100 jest podzielony na partycje i obsługuje wiele maszyn wirtualnych przy użyciu technologii MIG, umożliwiając poufne przetwarzanie wielu dzierżawców. Aplikacje akcelerowane przez GPU mogą działać bez zmian w TEE i nie muszą być partycjonowane ręcznie.

Użytkownicy mogą połączyć bogate portfolio i moc oprogramowania NVIDIA dla sztucznej inteligencji i HPC z bezpieczeństwem Hardware Root of Trust oferowanym przez NVIDIA CC, aby zapewnić bezpieczeństwo i ochronę danych na najniższym poziomie architektury GPU. Użytkownicy mogą uruchamiać i testować aplikacje w infrastrukturze współużytkowanej lub zdalnej i mieć pewność, że żadne nieautoryzowane podmioty, w tym hyperwizor, system operacyjny hosta, administrator systemu, właściciel infrastruktury lub ktokolwiek z fizycznym dostępem, nie będą mogły przeglądać ani modyfikować kodu i danych aplikacji, gdy są one używane w ramach TEE.

Poufne przetwarzanie danych w różnych przypadkach użycia

Możliwości przetwarzania poufnego w architekturze Hopper dodatkowo wzmacniają i przyspieszają bezpieczeństwo w przypadkach użycia wielostronnego przetwarzania opartego na współpracy, takich jak Federated Learning. Federated Learning w środowisku rozproszonym umożliwia wielu organizacjom współpracę w celu szkolenia lub oceny modeli AI bez konieczności udostępniania zastrzeżonych zestawów danych każdej grupy. Szkolenie na H100 gwarantuje, że dane i modele sztucznej inteligencji będą chronione przed nieautoryzowanym dostępem przez zagrożenia zewnętrzne lub wewnętrzne w każdej uczestniczącej witrynie, a każda witryna może zrozumieć i zatwierdzić oprogramowanie działające na swoich równorzędnych urządzeniach. Zwiększa to zaufanie do bezpiecznej współpracy i napędza postęp badań medycznych, przyspiesza opracowywanie leków, ogranicza oszustwa ubezpieczeniowe i finansowe oraz wiele innych aplikacji – przy jednoczesnym zachowaniu bezpieczeństwa, prywatności i zgodności z przepisami.

Poufne trenowanie sieci w środowisku rozproszonym

Chociaż architektura GPU NVIDIA Ampere obejmowała technologię bezpiecznego rozruchu, nie obsługiwała ona monitorowanego rozruchu, który jest wymagany do zachowania zgodności z zasadami przetwarzania poufnego. Bezpieczny rozruch to zestaw systemów sprzętowych i programowych, które zapewniają uruchomienie GPU ze znanego bezpiecznego stanu, zezwalając na uruchamianie tylko uwierzytelnionego oprogramowania układowego i mikrokodu, które zostały opracowane i sprawdzone przez firmę NVIDIA podczas uruchamiania GPU. Monitorowany rozruch to proces zbierania, bezpiecznego przechowywania i raportowania charakterystyk procesu rozruchu, który określa bezpieczny stan GPU. Atestacja i weryfikacja to sposoby porównywania pomiarów z wartościami odniesienia w celu zapewnienia, że urządzenie jest w oczekiwanym bezpiecznym stanie. NVIDIA zapewnia atestatorów, wartości referencyjne i podpisy adnotacji.
Proces wykorzystuje pomiary dostarczane przez monitorowany rozruch i porównuje je z wartościami referencyjnymi dostarczonymi przez firmę NVIDIA lub usługodawców w celu określenia czy system jest w stanie gotowym i bezpiecznym do rozpoczęcia działania na danych klienta. Po sprawdzeniu poprawności systemu klient może uruchamiać aplikacje tak, jakby uruchamiał tą samą aplikację w niechronionym środowisku obliczeniowym.

Implementacja przetwarzania poufnego NVIDIA
Jak widać na poniższym schemacie, lewa strona z wyłączoną funkcją NVIDIA CC przedstawia tradycyjną architekturę komputera PC, w której system operacyjny hosta i hyperwizor mają pełny dostęp do urządzeń, takich jak procesor graficzny. Prawa strona z NVIDIA CC On pokazuje pełną izolację maszyny wirtualnej od innych elementów.

NVIDIA CC wyłączone vs. NVIDIA CC włączone. Izolacja maszyny wirtualnej

Pełna izolacja VM TEE i GPU TEE w celu utworzenia poufnego środowiska obliczeniowego jest zapewniona przez silne zabezpieczenia sprzętowe, w tym trzy kluczowe elementy, które częściowo wyjaśniono wcześniej:

  • On-Die Root of Trust (RoT) — zanim system operacyjny będzie mógł komunikować się z GPU, GPU korzysta z RoT, aby upewnić się, że oprogramowanie układowe działające na urządzeniu jest autentyczne i nie zostało zmodyfikowane przez właściciela urządzenia (CSP itp.).
  • Poświadczanie urządzeń — umożliwia użytkownikom upewnienie się, że komunikują się z autentycznymi procesorami graficznymi NVIDIA z włączoną funkcją poufnego przetwarzania, a stan zabezpieczeń procesora graficznego odpowiada znanemu, zaufanemu bezpiecznemu stanowi, w tym konfiguracji oprogramowania układowego i sprzętu.
  • AES-GCM 256 – Transfery danych między procesorem a kartą graficzną H100 są szyfrowane/deszyfrowane z szybkością łącza PCIe przy użyciu sprzętowej implementacji AES256-GCM. Zapewnia to zarówno poufność, jak i integralność danych przesyłanych przez magistralę z kluczami dostępnymi wyłącznie dla procesora i procesora graficznego TEE. Implementacja kryptograficzna będzie certyfikowana zgodnie z FIPS 140-3 poziom 2.

Należy pamiętać, że do korzystania z technologii poufnych obliczeń firmy NVIDIA nie są wymagane żadne zmiany w kodzie aplikacji CUDA.

Udostępnij na Facebook

Archiwum

Udostępnij na Facebook

NVENC / NVDEC & NVJPG – Funkcje wideo WE/WY w kartach NVIDIA

Sprzętowy koder i dekoder
Procesory graficzne NVIDIA zawierają jeden lub więcej sprzętowych koderów i dekoderów (niezależnych od rdzeni CUDA), które zapewniają sprzętową akcelerację kodowania i dekodowania wideo dla kilku popularnych kodeków. Po odciążeniu dekodowania/kodowania silnik graficzny i CPU są zwolnione do innych zadań.

Usługa NVIDIA GeForce Now działa dzięki wykorzystaniu NVENC w centrum danych i strumieniowemu przesyłaniu wyników do klientów końcowych

Silniki akceleratorów sprzętowych GPU do dekodowania wideo (określane jako NVDEC) i kodowania wideo (określane jako NVENC) obsługują przetwarzanie wideo szybciej niż wyświetlanie wideo w czasie rzeczywistym, co czyni je odpowiednimi do stosowania w aplikacjach do transkodowania, oprócz odtwarzania wideo. Najnowsza architektura procesorów graficznych NVIDIA Ada obsługuje do 3x NVENC. Video Codec SDK 12.0 obsługuje równomierne rozłożenie obciążenia na wiele koderów, umożliwiając kodowanie w czasie rzeczywistym 8k60 dla formatów AV1 i HEVC.
Więcej o SDK dla kodeków wideo

NVENC — kodowanie wideo z akceleracją sprzętową
Kodowanie AV1 za pomocą Video Codec SDK 12.0 w architekturze Ada firmy NVIDIA.
AV1 to najnowocześniejszy format kodowania wideo, który obsługuje wyższą jakość i lepszą wydajność w porównaniu z H.264 i HEVC. W Adzie wiele NVENC w połączeniu z AV1 umożliwia kodowanie wideo 8K przy 60 klatkach na sekundę przy większej liczbie jednoczesnych sesji. Dzięki pełnemu kodowaniu (które jest złożone obliczeniowo) przeniesionemu do NVENC, silnik graficzny i CPU są wolne do innych operacji. Na przykład w scenariuszu nagrywania i przesyłania strumieniowego gier, takim jak przesyłanie strumieniowe do Twitch.tv przy użyciu oprogramowania Open Broadcaster Software (OBS), całkowite przeniesienie kodowania do NVENC sprawia, że przepustowość silnika graficznego jest w pełni dostępna do renderowania scen w grach.
NVENC umożliwia przesyłanie strumieniowe aplikacji w wysokiej jakości i bardzo niskich opóźnieniach bez użycia CPU, kodowanie w bardzo wysokiej jakości na potrzeby archiwizacji, przesyłania strumieniowego OTT, filmów poprzez internet i kodowania przy bardzo niskim zużyciu energii na strumień (W/strumień)

NVDEC — dekodowanie wideo z akceleracją sprzętową
Procesory graficzne NVIDIA zawierają sprzętowy dekoder (określany jako NVDEC), który zapewnia akcelerację sprzętową dekodowania wideo dla kilku popularnych kodeków. Dzięki całkowitemu przeniesieniu dekodowania do NVDEC silnik graficzny i CPU są wolne dla innych operacji. NVDEC obsługuje znacznie szybsze niż dekodowanie w czasie rzeczywistym, co czyni go odpowiednim do zastosowań transkodujących, oprócz aplikacji do odtwarzania wideo.
NVDECODE API umożliwia programistom konfigurowanie tego dedykowanego, sprzętowego dekodera wideo. Obsługuje on przyspieszane sprzętowo dekodowanie następujących kodeków wideo na platformach Windows i Linux: MPEG-2, VC-1, H.264 (AVCHD), H.265 (HEVC), VP8, VP9 i AV1.

Sprzętowe wsparcie dekodowania za pomocą karty H100
NVDEC dla DL (deep learning)

H100, w porównaniu do A100, znacznie poprawia możliwości dekodowania wideo. Na platformie DL wejściowe wideo jest kompresowane w dowolnym standardzie branżowym, takim jak H264 / HEVC / VP9 itp. Jednym z istotnych wyzwań związanych z osiągnięciem wysokiej przepustowości typu end-to-end na platformie DL jest możliwość zrównoważenia wydajności dekodowania wideo z wydajnością uczenia i wnioskowania. W przeciwnym razie nie można wykorzystać pełnej wydajności DL procesora graficznego. H100 zapewnia znaczną poprawę przepustowości dekodowania, obsługując osiem (8) jednostek NVDEC (NVida DECOde), w porównaniu z pięcioma (5) jednostkami NVDEC w A100. Zapewnia to również, że podczas operacji MIG każda z instancji MIG może otrzymać co najmniej jedną jednostkę NVDEC.

Strumienie  #1080p30 Dekodowanie HEVC Dekodowanie  H264 Dekodowanie  VP9
H100 340 170 260
A100 157 75 108

Porównanie liczby strumieni podczas dekodowania wideo na kartach A100 i H100

Dekodowanie NVJPG (JPEG)
Jednym z podstawowych wąskich gardeł w osiąganiu wysokiej przepustowości uczenia DL i wnioskowania dla obrazów jest proces dekodowania obrazów JPEG (skompresowany -> raw). CPU i GPU nie są zbyt wydajne w przypadku dekodowania JPEG ze względu na operacje szeregowe używane do przetwarzania bitów obrazu. Ponadto, jeśli dekodowanie JPEG odbywa się w CPU, kolejnym wąskim gardłem staje się szyna PCIe. H100 zawiera osiem sprzętowych jednordzeniowych silników NVJPG, które przyspieszają dekodowanie JPEG, w porównaniu do jednego 5-rdzeniowego silnika w A100.

Najważniejsze cechy silnika H100 NVJPG:

  • NVJPG obsługuje formaty YUV420, YUV422, YUV444, YUV400 i RGBA
  • Ulepszona architektura JPEG z A100: Zamiast 5-rdzeniowego silnika A100, H100 dodaje 8 jednordzeniowych silników. Upraszcza to znacznie model użytkowania oprogramowania, ponieważ obrazy JPEG można niezależnie przypisywać do poszczególnych silników, zamiast gromadzić je w partiach po pięć obrazów. Poprawia również przepustowość w przypadku heterogenicznych rozdzielczości obrazu w tej samej partii.
  • W trybie MIG każda partycja MIG może mieć co najmniej jeden silnik NVJPG
  • Przepustowość formatu JPEG znacznie wzrosła w porównaniu z A100
Obrazy/s w rozdzielczości 1080p Dekodowanie JPEG 444 Dekodowanie JPEG 420
H100 3310 6350
A100 1490 2950

Wydajność dekodowania NVJPG
* Dla powyższej przepustowości JPEG przyjęto współczynnik kompresji 10:1
** Powyższa przepustowość przy założeniu rozdzielczości 1080p. Przy mniejszych rozdzielczościach, takich jak 224×224, przepustowość obrazu JPEG może być ~30-40% niższa niż pokazano powyżej

NVIDIA udostępnia bibliotekę ładowania danych (DALI), która zarządza akceleracją sprzętową potoków obrazów lub wideo poprzez automatyczne wywołanie funkcji NVJPG / NVDEC. Oferuje programistom AI łatwy sposób na używanie sprzętowych silników obrazu / wideo w obciążeniach DL. Pozwala także na tworzenie niestandardowych potoków za pomocą elastycznych grafów. Szczegółowy opis i instrukcja obsługi DALI jest dostępna na stronie https://docs.nvidia.com/deeplearning/dali/user-guide/docs/. Bibliotekę DALI można pobrać ze strony https://github.com/NVIDIA/DALI.

Udostępnij na Facebook

NVIDIA MIG – Technologia NVIDIA Multi-Instance GPU

Technologia MIG została wprowadzona w procesorze A100 bazującym na architekturze NVIDIA Ampere.
MIG zwiększa wydajność i elastyczność procesorów graficznych NVIDIA H100, A100 i A30 poprzez podział GPU na 7 w pełni izolowanych instancji, z których każda posiada własną pamięć o dużej przepustowości, pamięć podręczną i rdzenie obliczeniowe. Daje to administratorom możliwość obsługi każdego obciążenia, od najmniejszego do największego, z gwarantowaną jakością usług (QoS) i rozszerzeniem zasięgu przyspieszonych zasobów obliczeniowych dla każdego użytkownika.

Przykład wykorzystania instancji MIG do różnych zadań

MIG stał się niezwykle ważną funkcją skalowania w centrach danych dostawców usług w chmurze (Cloud Service Provider – CSP) poprzez zapewnienie niezależnych, w pełni izolowanych i bezpiecznych instancji GPU dla wielu klientów (takich jak maszyny wirtualne, kontenery i procesy) korzystających z tego samego GPU.

Korzyści

Rozszerzenie dostępu do GPU dla większej liczby użytkowników.
Dzięki MIG można udostępnić do 7 razy więcej zasobów na jednym GPU. MIG zapewnia naukowcom i programistom więcej zasobów i elastyczność niż kiedykolwiek wcześniej.

Optymalizacja wykorzystania GPU
MIG zapewnia elastyczność wyboru kilku różnych rozmiarów instancji, co pozwala na zapewnienie odpowiedniej wielkości instancji GPU dla każdego obciążenia, ostatecznie optymalizując wykorzystanie i maksymalizując inwestycję.

Jednoczesne uruchamianie mieszanych obciążeń
MIG umożliwia równoczesne uruchamianie zadań wnioskowania, trenowania sieci i obliczeń o wysokiej wydajności (HPC) na jednym GPU z deterministycznymi opóźnieniami i przepustowością. W przeciwieństwie do dzielenia czasu, każde zadanie przebiega równolegle, zapewniając wysoką wydajność.

Poniższy schemat MIG pokazuje, jak wielu niezależnym użytkownikom z tej samej lub różnych organizacji można przypisać własne, dedykowane, chronione i izolowane instancje w ramach jednego fizycznego GPU.

Przykładowa konfiguracja CSP MIG

Ważną funkcją MIG do zarządzania, dostrajania, serwisowania i równoważenia obciążenia maszyn wirtualnych vGPU (wirtualnych GPU) jest możliwość migracji vGPU między instancjami GPU na jednym GPU oraz pomiędzy różnymi GPU w klastrze.
Każda instancja GPU ma oddzielne i izolowane ścieżki w całym systemie pamięci — wbudowane porty crossbar, banki pamięci podręcznej L2, kontrolery pamięci i szyny adresowe DRAM są przypisane jednoznacznie do indywidualnej instancji. Gwarantuje to, że obciążenie indywidualnego użytkownika może działać z przewidywalną przepustowością i opóźnieniem, z tą samą alokacją pamięci podręcznej L2 i przepustowością DRAM, nawet jeśli inne zadania obciążają ich własne pamięci podręczne lub nasycają ich interfejsy DRAM.

Ulepszenia MIG w H100
Technologia MIG drugiej generacji w H100 zapewnia około 3x większą moc obliczeniową i prawie 2x większą przepustowość pamięci na instancję GPU w porównaniu z A100. Architektura NVIDIA Hopper usprawnia technologię MIG, zapewniając w pełni bezpieczne konfiguracje MIG dla wielu użytkowników i wielu najemców, co jest natywne dla chmury. Do siedmiu instancji GPU można bezpiecznie odizolować od siebie dzięki nowym funkcjom poufnego przetwarzania danych na poziomie sprzętu i hypervizor’a.
Poniższy schemat przedstawia przykładową konfigurację współpracujących ze sobą CPU i GPU, tworzącą zaufane środowiska wykonawcze (Trusted Execution Environments – TEEs) dla kilku użytkowników korzystających z jednego procesora graficznego. Strona CPU zapewnia poufne maszyny wirtualne z bezpiecznymi sterownikami NVIDIA. Procesor GPU H100 w tym przykładzie jest podzielony na cztery instancje Secure MIG. Transfery pomiędzy CPU a GPU są szyfrowane. Wirtualizacja sprzętowa GPU jest realizowana przy użyciu PCIe SR-IOV (z jedną funkcją wirtualną (VF) na instancję MIG). Poufność i integralność danych zapewnia wiele sprzętowych funkcji bezpieczeństwa, a zapory sprzętowe zapewniają izolację pamięci między instancjami GPU.

Bezpieczny MIG dla kilku użytkowników w konfiguracji z jednym CPU

Architektura Hopper umożliwia teraz dostarczanie bezpiecznej, wysokoprzepustowej inteligentnej analizy wideo (IVA) we współdzielonej infrastrukturze również dedykowanym dekoderom obrazu i wideo. Każda Instancja GPU MIG może otrzymać co najmniej jeden element NVDEC i NVJPG.
Ponadto instancje H100 MIG zawierają własne zestawy monitorów wydajności, które współpracują z narzędziami programistycznymi firmy NVIDIA. Dzięki współbieżnemu profilowaniu administratorzy mogą monitorować odpowiednią akcelerację GPU i bez problemów, optymalnie przydzielać zasoby użytkownikom.

Udostępnij na Facebook
WordPress Appliance - Powered by TurnKey Linux