Grote consternatie in de AI en Machine Learning wereld. Waar iedereen blij was met de komst van de ADA kaarten komt men nu van een koude kermis thuis. Sinds een aantal weken zijn ontwikkelaars bezig om "bugs" op te speuren die we in de RTX 30** serie kaarten zo niet kenden:
- Parallel training with 4 cards 4090 cannot be performed on AMD 5975WX, stuck at the beginning
- Standard nVidia CUDA tests fail with dual RTX 4090 Linux box
- DDP training on RTX 4090 (ADA, cu118)
In eerste instantie werdt op de nVidia forums na moederborden, Cpu en verkeerde BIOS en driver versies verwezen maar toen kwam de aap uit de mouw: nVidia blokkeerd bepaalde functies in hun driver om gebruik van "consumenten" kaarten (RTX 4090/80 ezv) te "ontmoedigen".
Wat wel goed werkt zijn de Pro kaarten, dus de RTX 6000 Ada bijvoorbeeld.
Wij vonden de omvang, fysieke afmetingen van de kaarten al absurd, het is simpleweg niet mogelijk om meer dan twee kaarten in een systeem met luchtkoeling te gebruiken gezien deze 4 slots op het mobo in beslag nemen.De consumenten kaarten kunnen idem niet in 4U Rackmounts geplaatst worden, meestgebruikte form behuizing voor dergelijke systemen, omdat deze te hoog zijn. De Pro kaarten daarentegen kunnen zelfs krachtiger zijn dan de consumenten kaarten maar nemen maar maximaal 2 slots in beslag waardoor dus makkelijk 4 kaarten in een systeem gebruikt kunnen worden. Je moet dan weel ca. 400% meer per kaart betalen dan voor de consumenten versie.