Als Grafikkarte wird ein Peripheriegerät zur Verarbeitung von Datensignalen für die Bildschirmausgabe bezeichnet. Grafikkarten sind entweder modular als Steckkarten in das Computersystem eingebunden oder bereits fest auf der Hauptplatine verbaut (Onboard-Grafik). Die wichtigsten Komponenten moderner Grafikkarten sind GPU, Video-RAM sowie die Anschlüsse für externe Geräte.
Das Grafikkartenprinzip wurde in Serienprodukten erstmals beim Mikrocomputer Apple II verwendet, dessen auf der Hauptplatine integrierte Grafikfähigkeiten sich durch zusätzliche Steckkarten verbessern liesen. Der erste IBM-PC kam 1981 mit einer Grafikkarte auf den Markt, die lediglich die einfarbige Darstellung von Text ermöglichte. Bis 1989 setzten sich die Farb-Grafikkarten durch; der damalige Videomodus VGA (640 × 480 Punkte in 16 Farben) wurde lange als "Notfall-Modus" bei PCs verwendet.
VGA war allerdings nicht der letzte Grafikkartenstandard. Die Video Electronics Standards Association (VESA) stellte einen Standard für Videomodi bis zu einer Auflösung von 1.280 × 1.024 Punkten in 16 Bit Farbtiefe auf, die heute jede PC-Grafikkarte beherrscht. Die weiteren Bezeichnungen SVGA, XGA usw. sind keine Grafikkartenstandards mehr, sondern Kurzbezeichnungen für Bildschirmauflösungen, zum Beispiel XGA: 1.024 × 768 Punkte. Bis etwa 1990 beschränkten sich die Grafikkarten darauf, den Inhalt des Video-RAM in Ausgangssignale für den Monitor umzuwandeln. Programmierer konnten im Wesentlichen nur den Textmodus nutzen sowie im Grafikmodus einzelne Pixel auf eine bestimmte Farbe setzen.
Ab 1990 entwickelten sich die Grafikkarten zu eigenständigen kleinen Computern mit eigener GPU (Graphics Processing Unit), bei dem man nicht nur einzelne Pixel setzen konnte, sondern dem man Befehle zum Zeichnen von Linien und Füllen von Flächen schicken konnte (Windows-Beschleuniger); diese Funktionen beschleunigten vor allem das Verschieben der Fenster (Windows) der grafischen Benutzeroberfläche. Das Konzept der Zusatzfunktionalität bewährte sich, weshalb bspw. seit 1995 auch Funktionen zur Beschleunigung der Videowiedergabe eingeführt wurden. Erste 3D-Beschleuniger kamen ebenfalls Mitte der 1990er Jahre auf den Markt, eine Entwicklung, die vom steigenden Interesse an 3D-Computerspielen vorangetrieben wurde.
Heutzutage nutzen immer mehr Programme die leistungsfähigen GPUs, um Rendering-Aufgaben auf den Grafikprozessor auszulagen. Neben der Entlastung des Hauptprozessors führt der Rückgriff auf Grafikbibliotheken wie zum Beispiel die OpenGL (Open Graphics Library) dazu, dass viele Grafikeffekte in Echtzeit dargestellt werden können.
Zuletzt aktualisiert am 10.11.2017 von Cyberport-Redaktion