Grafikkarten – nicht nur für Gamer sind sie essenziell. Wenn dein Display einmal gestockt hat und Grafikarbeiten zu einer nervigen Tortur werden, dann kannst du dir ziemlich sicher sein, dass die Grafikkarte schuld ist. Auch, wenn sich Prozessorhersteller seit Jahren bemühen, Prozessoren und Grafikkarten wieder zu vereinen, kommen diese integrierten GPUs (kurz für graphics processing unit) immer noch nicht an die Leistung der meisten externen Grafikkarten heran.
#erstmalverstehen: dedizierte vs. integrierte Grafikkarte – das ist der Unterschied
Jede Art von Darstellung auf einem Display benötigt die Leistung der GPU. Egal, ob Browserspiele, Animationen beim Öffnen eines Programms oder Mausbewegungen, alles wird von der GPU erzeugt. Natürlich kann die integrierte Grafikkarte in Intel– oder AMD-Chips das bewerkstelligen, wer aber schon mal ein grafikintensiveres Programm verwendet oder Spiel gespielt hat, wird schnell an die Grenzen kommen.
Deshalb bekommt ihr in diesem #erstmalverstehen-Beitrag einen kleinen Guide an die Hand, der euch erklärt, welche Grafikkarte für euch besonders geeignet ist und auf was ihr beim Kauf achten solltet.
Die Basics: Was heißt GPU eigentlich? Woran kann man eine Grafikkarte beurteilen?
Woraus besteht eine Grafikkarte?
Wie vorhin bereits erwähnt, bedeutet GPU „graphics processing unit“. Übersetzt heißt das so viel wie „Grafikverarbeitungseinheit“. Eine dedizierte Grafikkarte besteht neben der GPU noch aus einem Speicher (VRAM genannt), Anschlüssen und dem RAMDAC, welcher digitale Signale gegebenenfalls für einen Monitor mit VGA-Anschluss in brauchbare analoge Signale umwandelt. Moderne Grafikkarten in PCs besitzen meist zusätzlich einen Lüfter, der auf der Karte sitzt. Eine Grafikkarte verbraucht nämlich oftmals recht viel Strom und heizt sich schnell auf.
Wovon hängt die Leistung einer Grafikkarte ab?
Die Leistung der Grafikkarte hängt wie bei einem normalen Prozessor von der Taktrate und den Shadereinheiten ab. Shader berechnen Daten für die GPU und werden deshalb auch Recheneinheiten genannt. Des Weiteren spielt die Art des Speichers eine Rolle – wobei standardmäßig DDR5 und bei höherklassigen DDR6 genutzt wird – und ebenfalls dessen eigene Taktrate. Der VRAM übernimmt, wie der RAM eines Prozessors, Zwischenspeicherungen, die vor allem bei der Videobearbeitung und beim Spielen von 3D-Spielen mit vielen Details ausschlaggebend sind.
Heutzutage werden mindestens zwei bis vier Gigabyte verbaut, Grafikkarten für Profi-Gamer warten aber auch gerne mit bis zu elf Gigabyte Videospeicher auf. Was die Recheneinheiten und Taktrate betrifft, so können sich beide gegenseitig kompensieren. High-End Grafikkarten besitzen eine Shaderanzahl zwischen 2.500 und 4.500 Einheiten. Die Taktrate im High-End-Bereich liegt hingegen zwischen 1.200 und 1.800 Megahertz. Eine niedrige Taktrate weist also nicht zwangsläufig auf eine langsame Grafikkarte hin.
Die geläufigen GPUs werden von AMD und NVIDIA produziert. Sogenannte Boardpartner wie ASUS kaufen diese und stellen damit ihre eigenen Grafikkarten zusammen. Das führt zu leicht unterschiedlichen Leistungen.
NVIDIA & AMD: Unterschiede & Besonderheiten
Wer sich auch nur ansatzweise mit Computern auskennt, der dürfte schon einmal entweder über NVIDIA oder AMD gestolpert sein. NVIDIA hat sich besonders auf Gaming-Grafikarten spezialisiert, AMD ebenfalls auf normale Grafikkarten. Bisher dominiert NVIDIA mit leistungsstarken Grafikkarten den Markt, doch auch AMD hat seine Vorteile und holt immer weiter auf. Der Hersteller gewinnt vor allem durch ein gutes Preis-Leistungsverhältnis immer mehr Kunden. Nichtsdestotrotz haben beide Konkurrenten ihre Eigenheiten.
Grafikkarten von NVIDIA
Um diese Eigenheiten zu erläutern, beginnen wir zuerst mit dem Marktführer. NVIDIA hat seiner Grafikkarten-Marke den Beinamen GeForce gegeben. Die normalen und aktuellen Consumer-Karten sind grob in drei Serien unterteilt. Die MX 200-Serie ist in Notebooks verbaut und bringt eher wenig Leistung. Die GTX-Serie 1600 siedelt sich im niedrigen bis mittleren Preissegment an. Die GTX 1000-Serie ist auch noch oft anzutreffen, wurde aber mittlerweile abgelöst. Die aktuellen Grafikkarten von NVIDIA sind unter der Bezeichnung RTX 2000 bekannt. Diese lassen in der Oberklasse wirklich keine Wünsche offen. Die letzten zwei Nummern erstrecken sich von 50 bis 80 bei der 1000er- und 2000er-Serie.
Zu den Nummern kommen die Begriffe „Ti“ und „Super“ hinzu. „Super“ beschreibt zumeist eine etwas stärkere Version und bietet höhere Taktraten und mehr Shader. Die Ti-Versionen setzen zumeist noch eine Schippe drauf und übertreffen die Super-Varianten. So ist die leistungsstärkste Grafikkarte der RTX-Reihe die NVIDIA GeForce RTX 2080 Ti. Ein besonderes Extra bei den RTX-Karten ist Raytracing. Das sorgt für realistische Lichteffekte und Schatten in Spielen. AMD kann damit aktuell noch nicht aufwarten. Dafür unterstützen auch AMDs Karten G-Sync – eine Methode um Bildwiederholraten jenseits von 120 Hertz zu erreichen und Ruckler zu minimieren – beziehungsweise das Äquivalent Freesync.
Grafikkarten von AMD
Kommen wir jetzt zu AMDs Grafikkarten unter dem Namen „Radeon“. Hier teilen sich die aktuellen Grafikkarten ebenfalls in drei Serien auf. Die RX Vega-Reihe ist für den High-End-Bereich gedacht, kommt aber leider nicht über NVIDIAs RTX 2080 hinaus und bietet meist auch keinen preislichen Vorteil.
Die Radeon RX 5700er-Serie siedelt sich im mittleren bis hohen Segment an und steht etwa mit NVIDIAs RTX 2060 und 2070 im Gleichstand, ist dafür aber meist günstiger zu haben. AMD kann vor allem im Einsteiger-Segment mit der Serie RX 500 punkten. Für Gaming in HD sind diese Karten vollkommen ausreichend und bieten ein sehr gutes Preis-Leistungsverhältnis.
Welche Grafikkarte ist für mich die Richtige?
Das waren bisher recht viele Fakten. Um euch die Suche nach einer neuen Grafikkarte zu vereinfachen, zeigen wir euch hier jetzt ein paar Anwendungsbeispiele. Als Freizeit-Nutzer, der nicht die Absicht hat, Grafik-intensive Programme zu verwenden, reicht oftmals schon die integrierte GPU, die in modernen Prozessoren meist schon verbaut ist. Falls euer PC keine integrierte Grafikeinheit besitzt oder ihr für den Fall der Fälle doch eine externe Grafikkarte einbauen wollt, dann greift zu einer NVIDIA GTX 1650 oder einer anderen aus den Hauptreihen mit einer 50 am Ende. Die 50 steht für die schwächsten Grafikkarten in den Serien von NVIDIA.
Bei den AMD-Grafikkarten eignet sich die AMD Radeon RX500-Reihe perfekt. Selbst die zweit leistungsstärkste Karte mit der Bezeichnung RX 580 – die schwächste Karte ist übrigens die RX 550 – besitzt 8 Gigabyte VRAM und ist oft schon unter 200 Euro erhältlich. Dafür sitzt aber auch ziemlich viel Power unter der Haube. Die kleineren und günstigeren Vertreter der RX 500-Serie reichen ebenfalls für alltägliche Anwendungen aus. Unser Tipp: Greift im Einsteigerbereich zu AMD!
Erstaunlicherweise kann die AMD Radeon RX 580 und die RX 590 auch bei Gelegenheitsspielern und bei Nutzern von Grafikprogrammen punkten. Die meisten Spiele sind hier auf Full HD mit über 60 Bildern pro Sekunde spielbar und der VRAM, der für Bild- und Videobearbeitungssoftware wichtig ist, ist mit acht Gigabyte ebenfalls ausreichend. Wer etwas mehr Leistung will, deine Überlegung wert. Der teuerste Ableger, die GTX 1660 Ti, ist für rund 300 Euro erhältlich.
Echte Gamer wollen meist mehr Leistung und NVIDIA versteht das genau. Mit Raytracing ist die RTX 2000-Serie auch genau darauf ausgelegt. Selbst der günstigste Vertreter der Reihe, die RTX 2060 für 300 bis 400 Euro, bewältigt die meisten Spiele in WQHD (WQHD ist fast doppelt so scharf wie Full HD) ohne Probleme. Die leistungsstärkste Karte namens RTX 2080 Ti lässt hingegen auch im 4K-Gaming keine Wünsche offen.
Gaming: Welche Karte für welche Auflösung?
Da viele von euch vielleicht hier sind, um sich Rat für die nächste Gaming-Grafikkarte zu holen, wollen wir das noch etwas näher erläutern. Zur allgemeinen Erklärung: Es werden in der Gaming-Szene bei Spielen auf höchster Grafikstufe zumeist 60 Bilder pro Sekunde (kurz fps) als Ideal angestrebt, deswegen werden wir das auch als Maßstab annehmen. Natürlich lassen sich die Details auch herunterschrauben, aber wer will das schon? Die gängigen Auflösungs-Standards sind Full-HD (1.920 × 1.080 Pixel), WQHD (2.560 x 1.440 Pixel) und 4K (3840 × 2160 Pixel).
Starten wir mit den Grafikkarten, die für Full-HD ausreichen:
- Radeon RX 580 und RX 590
- Geforce GTX 1060 aufwärts
- Radeon RX Vega 54 und 64
- Geforce GTX 1660 aufwärts
- Geforce RTX 2000-Serie
- Radeon 5500 aufwärts
- Radeon VII
Grafikkarten die auch WQHD mit mindestens 60fps bewältigen:
- Geforce GTX 1070 aufwärts
- Geforce GTX 1660 TI
- Geforce RTX 2000-Serie
- Radeon RX Vega 56 & 64
- Radeon VII (diese Grafikkarte wurde speziell für WQHD entwickelt)
- Radeon RX 5600 XT aufwärts
Aus gegebenem Anlass – Grafikkarten die 4K mit mindestens 40fps bewältigen:
- Radeon RX Vega 64
- Radeon RX 5700 & RX 5700 XT
- Geforce GTX 1080 Ti
- Geforce RTX 2060 Super aufwärts
Die Königsklasse: 4K mit 60fps:
Da die Leistung des restlichen Systems auch eine Rolle spielt, können wir natürlich keine Garantie auf die Werte geben. Besonders bei 4K-Auflösung ist deswegen Vorsicht geboten. Andere Tests geben auch für die GeForce RTX 2060 und RTX 2060 Super an, dass sie 4K-Auflösung mit durchschnittlich mindestens 60fps problemlos bewältigen. Die Werte hängen hier natürlich auch von den getesteten Spielen ab.
Warum die Framerate (fps) wichtig ist, könnt ihr in diesem Video nochmal sehen.
Grafikkarte muss immer zum Einsatzzweck passen
Es gibt viele verschiedene Grafikkarten und die Konfigurationen der verschiedenen Hersteller bieten weitere Möglichkeiten. Für unter 300 Euro finden sich bereits eine Menge guter Grafikkarten, auch für Gaming. Wer das Beste vom Besten möchte, muss allerdings zu kostspieligeren Varianten greifen. Wenn ihr wisst, was ihr von eurer Grafikkarte erwartet, dann lohnt sich auch immer ein spezifischer Vergleich und das Heranziehen von Benchmarks. Diese zeigen die genaue Leistung – auch anhand einzelner Spiele. Für weitere Details zu speziellen Grafikkarten oder wenn ihr noch Fragen habt, hinterlasst uns gerne einen Kommentar.
Werde Autor!
Dieser Beitrag wurde von Jenny Gringel veröffentlicht.
Jenny Gringel hat bereits 39 Artikel geschrieben.
Sei auch dabei: Werde jetzt Autor und teile dein Wissen!
Mich würde mal interessieren, wie sich das mit Grafikkarten älterer Generationen verhält?
Kann man da nach dem selben Schema vorgehen?
Gibt es da eventuell Tipps bzw. Empfehlungen?
So könnte man ja z.B. eine gebrauchte Karte kaufen und etwas Geld sparen. (für den Studentischen Geldbeutel sozusagen)
Hallo Stefan, du kannst natürlich auch eine gebrauchte Karte kaufen und so den einen oder anderen Euro sparen. Bedenke allerdings, dass frühere Karten für die selbe Leistung weniger effizient waren – deine Stromrechnung wird also höher ausfallen.
Ich persönlich würde nichts zu betagtes kaufen, da der hohe Stromverbrauch auch höhere Anforderungen an dein Netzteil stellt – und wenn du dieses tauschen musst, um die günstigere Karte betreiben zu können, hättest du dir auch gleich etwas Neues holen können. Außerdem fallen ja auch bei neuen Karten die Preise immer weiter.
Sollte dein Budget partout nicht reichen, ist mein Tipp zu schauen, ob du noch eine Karte aus dem Mining-Hype finden kannst. Die wurden zwar auf Dauerlast betrieben, allerdings normalerweise mit Einstellungen, die recht schonend sind. Dafür ist der Preis meist ziemlich attraktiv – die wurden in großen Massen gekauft, und deren Besitzer benötigen sie nicht mehr. Schau auch, ob die Karte deinen Anforderungen entspricht, sprich bei den Spielen, die du spielst, in der Auflösung, die dein Monitor hat, noch ausreichend flüssig ist. Dafür gibt es zahlreiche Testseiten die genau das durchprobiert haben.