Wenn man in den letzten Monaten online war, hat man höchstwahrscheinlich Beiträge in sozialen Netzwerken, Nachrichtenartikel und Videos über KI und die Inhalte, die sie erzeugen kann, gesehen. ChatGPT, das von OpenAI erfunden wurde, ist bei weitem das beliebteste. Über die Chat-Oberfläche können Nutzer/innen mit dem KI-Modell interagieren und ihm Fragen stellen, Aufgaben erteilen, Code schreiben und sogar Sätze, Absätze oder ganze Artikel verfassen!
Neben diesen textbasierten Modellen, wie ChatGPT, gibt es immer mehr visuelle Formen von KI-Modellen, die auf eine Eingabeaufforderung hin Bilder erzeugen können (wie MidJourney, Stable Diffusion, DALL-E usw.). Man kann diese Modelle auffordern, digitale Kunst auf der Grundlage einer Aufforderung wie der folgenden zu schaffen: "ein schönes Mädchen in den Straßen von Paris, das Gitarre spielt".
.
Mit einem dieser Modelle haben wir mit dieser Aufforderung das folgende Ergebnis erzielt: Generiertes Bild hier.
Der Zugang zu so leistungsfähigen Werkzeugen hat verständlicherweise ganze Branchen auf den Kopf gestellt. Auch wenn kein KI-Modell auch nur annähernd in der Lage ist, einen Menschen in den Bereichen Kunst, Grafik, Schreiben und Kreativität im Allgemeinen zu ersetzen, sind die ersten Auswirkungen in vielen Berufen zu spüren.
KI-generierte Inhalte werden jedoch nach wie vor nur als Hilfsmittel für die Erstellung von allgemeinen Inhalten (Text, Codeschnipsel, Bilder oder Grafiken) verwendet, da sie bei einer Vielzahl von Themen mit großer Sicherheit falsch liegen können. Tatsächlich hat
Googles Bard AI Chatbot gleich in seiner ersten Demo einen sachlichen Fehler gemacht!
!
Aber ihr Nutzen wird mit der Zeit immer größer werden. Es gibt bereits neuere KI-Modelle, die die Vorgängerversionen verbessern.
VRAM und KI-Modelle: Wie viel braucht man?
Einige der heute verfügbaren KI-Tools zeichnen sich durch ihren Open-Source-Charakter aus, der es Nutzern, Unternehmen und anderen Organisationen ermöglicht, diese Modelle ohne Datenschutz- oder Sicherheitsbedenken lokal auf ihrer Hardware zu verwenden.
Auch wenn große Unternehmen nicht über die Infrastruktur oder die finanziellen Mittel verfügen, um diese Modelle selbst zu hosten, können Einzelpersonen und Fachleute, die KI nutzen wollen, vor einer Herausforderung stehen. Einer der Gründe, warum KI-Modelle auf moderner Hardware sehr langsam sein können oder gar nicht unterstützt werden, ist der VRAM-Bedarf für diese Modelle.
Mindestanforderungen für Stable Diffusion XL
Das neu veröffentlichte Programm Stable Diffusion XL (SDXL) von Stability AI ist ein solches Beispiel. Das Unternehmen bezeichnet es als die bisher "fortschrittlichste" Version.
Es kann jetzt bessere Gesichter, lesbaren Text und ästhetischere Kunst mit kürzeren Eingabeaufforderungen erzeugen. Diese verbesserten Fähigkeiten gehen jedoch zu Lasten der Hardware, insbesondere der VRAM-Anforderungen und der GPU-Leistung.
Was genau braucht man also, um die Verbesserungen von SDXL auf dem heimischen Computer nutzen zu können?
Da Stability AI für diese Aufgabe eine Nvidia-Grafikkarte empfiehlt, haben wir sowohl aktuelle als auch ältere Produkte verwendet, um die zu erwartende Leistung besser einschätzen zu können. Obwohl Stability AI in der
Pressemitteilung, die sie veröffentlicht haben, ein Minimum von 8 GB VRAM fordert, wollten wir die Auswirkungen einer höheren VRAM-Kapazität testen.
Wirkt sich die Einhaltung des Minimums (oder eine leichte Überschreitung) drastisch auf die Leistung aus, oder kann eine leistungsfähigere GPU den Mangel an VRAM ausgleichen?
Um diese Frage zu beantworten, haben wir in unserem Labor getestet, wie das Spiel auf aktueller und älterer Hardware läuft. Die Daten sollen dir helfen, eine fundierte Kaufentscheidung für deine nächste Grafikkarte zu treffen.
SDXL GPU Benchmarks für GeForce Grafikkarten.
Für unsere Tests verwenden wir eine RTX 4060 Ti 16 GB, eine RTX 3080 10 GB und eine RTX 3060 12 GB Grafikkarte.
Zunächst beginnen wir mit einer einfachen Kunstkomposition, bei der wir die Standardparameter verwenden, um unsere GPUs ordentlich zu trainieren.
1024 x 1024
VRAM Größe(GB)
Geschwindigkeit(sec.)
RTX 4060 Ti 16G
11,4 GB
16,0 s
RTX 3080 10G
9,7 GB
65,1 s
RTX 3060 12G
11,7 GB
27,2 s
Die Ergebnisse sind wahrscheinlich für diejenigen überraschend, die sich normalerweise nur auf Spiele-Benchmarks konzentrieren.
Die RTX 4060 Ti 16GB mit ihrem 16GB-VRAM-Puffer lässt das Paket mit einem schnellen 16-Sekunden-Durchlauf locker hinter sich. An zweiter Stelle folgt, dank seines 12 GB VRAM, der RTX 3060 12 GB mit einer Zeit von 27,2 Sekunden. Das ist nicht großartig, aber immer noch ziemlich gut.
Dummerweise bedeutet das Fehlen von VRAM bei der RTX 3080, dass ihre rohe Leistung mit einer sehr langsamen Zeit von 65,1 Sekunden nutzlos wird! Eine moderne RTX 4060 Ti 16GB übertrifft eine High-End RTX 3080 der vorherigen Generation mit einer ~4x schnelleren Bilderzeugungszeit.
SDXL Benchmark: 1024x1024 + LoRA
Lassen Sie uns den Einsatz ein wenig erhöhen, ja? Im nächsten Test werden wir LoRA ausprobieren.
LoRA oder Low-Rank Adaptation Techniken ermöglichen es dir, die Stable Diffusion Modelle auf bestimmte Kunststile oder Charaktere abzustimmen. Allerdings belastet dies deinen VRAM stärker, also schauen wir mal, wie unsere Konkurrenten hier abschneiden.
Lassen Sie uns mit LoRA ein "Cybergirl"-Kunstwerk erstellen, um herauszufinden, wie groß der Unterschied zwischen einer Grafikkarte mit gerade genug VRAM und einer mit viel VRAM sein kann.
1024 x 1024 + LoRA
VRAM Größe(GB)
Geschwindigkeit(sec.)
RTX 4060 Ti 16G
15,5 GB
17,0 s
RTX 3080 10G
9,6 GB
98,8 s
RTX 3060 12G
11,5 GB
26,8 s
Hier wird die RTX 3080 von den 60er-Karten mit mehr VRAM leicht überholt. Die RTX 4060 Ti 16GB führt das Paket erneut an und braucht nur 17 Sekunden, um das Bild zu erzeugen, während die RTX 3080 mit schneckenhaften 98,8 Sekunden zurückbleibt.
SDXL Benchmarks: 1024x1024 + LoRA + ControlNet
Machen wir es den 60er-Karten jetzt mit einigen zusätzlichen Bedingungen unter Verwendung von ControlNet ein bisschen schwerer.
Erstens, was genau ist ControlNet? Einfach ausgedrückt, ist es ein neuronales Netzwerkmodell, mit dem du die Zusammensetzung von Stable Diffusion (Outputs) weiter kontrollieren und feinabstimmen kannst. Damit kannst du Stable Diffusion mitteilen, dass du einen klaren Hinweis auf das gewünschte Design gibst, indem du weitere Bedingungen zu den Outputs hinzufügst und das Ergebnis so verfeinerst, dass es deinen Anforderungen besser entspricht.
Auf der ControlNet GitHub Seite findest du weitere Details und eine Dokumentation zum Einrichten des Systems!
1024 x 1024 + LoRA + controlnet
VRAM Größe(GB)
Geschwindigkeit(sec.)
RTX 4060 Ti 16G
15,2 GB
48,7 s
RTX 3060 12G
11,5 GB
89,2 s
Der Wettbewerb ist jetzt ziemlich eng, wobei die RTX 3080 fast zur RTX 4060 TI 16 GB aufschließt und schließlich die RTX 3060 12 GB ganz schlägt. Aber selbst in diesem super rechenintensiven Szenario liegt die RTX 4060 Ti 16 GB am Ende mit knappem Vorsprung vorn.
SDXL Benchmark: 1024x1024 + Upscaling
Lassen Sie uns nun versuchen, etwas Upscaling einzubauen. Können unsere Konkurrenten der 60er-Klasse noch mit der beachtlichen Upscaling-Leistung der RTX 3080 mithalten? Für diese Tests verwenden wir das Real Enhanced Super-Resolution Generative Adversarial Networks, auch bekannt unter dem etwas einfacheren Akronym R-ESRGAN 4x+.
1024 x 1024 upscale x2
VRAM Größe(GB)
Geschwindigkeit(sec.)
RTX 4060 Ti 16G
10,8 GB
5,5 s
RTX 3060 12G
10,4 GB
7,8 s
Bei einem 1024x1024-Bild, das auf 2x hochskaliert wird, übertrifft die RTX 4060 Ti 16 GB sowohl die RTX 3080 als auch die RTX 3060 12 GB und braucht nur 5,5 Sekunden, um das Bild zu erzeugen - das sind 36% schneller als eine RTX 3080 10 GB.
1024 x 1024 upscale x4
VRAM Größe(GB)
Geschwindigkeit(sec.)
RTX 4060 Ti 16G
10,5 GB
10 s
RTX 3060 12G
10,4 GB
12,3 s
Die Kluft zwischen der RTX 4060 Ti 16 GB und der Konkurrenz wird bei einer 4x-Upscaling-Aufgabe mit dem R-ESRGAN 4x+ Upscaler immer kleiner. Die RTX 4060 Ti 16 GB erledigt die Aufgabe jetzt 23 % schneller als die RTX 3080 10 GB, während die RTX 3060 12 GB jetzt in Schlagdistanz zur RTX 3080 ist. Trotzdem behält die RTX 4060 Ti 16 GB immer noch die Führung.
Wie du an diesen letzten Ergebnissen sehen kannst, rückt die RTX 3080 umso näher an die 60er-Konkurrenz heran, je intensiver der Upscaling-Workload ist.
Die günstigste Grafikkarte für Stable Diffusion XL
Wenn es um KI-Modelle wie Stable Diffusion XL geht, ist es wichtig, mehr als genug VRAM zu haben. Anhand der obigen Tests ist leicht zu erkennen, dass die RTX 4060 Ti 16GB die günstigste Grafikkarte für die KI-Bilderzeugung ist, die du derzeit kaufen kannst.
Auf der
GitHub-Seite von Stability AI findest du weitere Informationen über SDXL und andere Diffusionsmodelle von Stability AI.
Erfahre mehr darüber, wie VRAM die Stable Diffusion XL beschleunigt:
https://youtu.be/7HDzpuGionA
Erfahre mehr über GeForce RTX™ 4060 Ti GAMING X SLIM 16G:
https://www.msi.com/Graphics-Card/GeForce-RTX-4060-Ti-GAMING-X-SLIM-16G