Ein Bildpunkt, auch Pixel genannt, bezeichnet den Farbwert sowie das für dessen Darstellung benötigte Flächenelement bei der Anzeige einer digitalen Grafik auf einem Bildschirm. Beim Begriff Pixel handelt es sich um eine Kombination der englischen Wörter „pictures“ und „element“, gebräuchlich ist die Abkürzung „px“. Ein Pixel ist die kleinste adressierbare Einheit eines Rasterbildes und wird numerisch durch Komponenten (z. B. R, G, B und optional Alpha für Transparenz) beschrieben. Es existiert im digitalen Raster als Abtastwert; erst das Ausgabegerät (Monitor, Drucker, Sensor) ordnet diesem Wert eine physikalische Fläche zu.
Der Begriff „Bildpunkt“ wurde bereits im 19. Jahrhundert in der Optik verwendet. 1884 bezeichnete der Bildpunkt die Anzeigeeinheit eines elektronischen Teleskops von Paul Nipkow. Bereits 1911 war die Kombination „picture element“ in USA üblich. Seitdem die ersten Computer in den 50er und 60er Jahren des 20. Jahrhunderts die Anzeige, Bearbeitung und das Einscannen von Bildern ermöglicht haben, kamen die Fachbegriffe wie „spot“, „matrix element“ oder „resolution element“ zum Einsatz. Im Zuge der Digitalisierung von Film und Fotografie setzten sich in den 1960er Jahren die Begriffe „pixel/picture element“ im technischen Sprachgebrauch durch, insbesondere in der Bildverarbeitung und bei frühen Digitalvideoprojekten.
Die Bezeichnung „Pixel“ wurde 1965 von Fred C. Billingsleys in seinem Artikel über Digitalvideo erstmals erwähnt. Bildpunkte werden häufig als quadratisch oder rechteckig betrachtet, wobei es sich in der digitalen Signalverarbeitung um eine Modellvorstellung handelt: Ein Bildpunkt ist mathematisch ein Abtastwert und keine Fläche. Die Fläche entsteht erst bei der Rekonstruktion bzw. Ausgabe. Zudem unterscheidet man zwischen gerätespezifischen Pixeln (Device-Pixel), logischen Pixeln (z. B. CSS-Pixel in Benutzeroberflächen) und Pixelaspectratio (PAR) in Videos, bei denen Pixel nicht zwingend quadratisch sein müssen.
Das Erscheinungsbild einer vergrößerten Rastergrafik verdeutlicht die Tatsache, dass ein Pixel nicht über eine inhärent quadratische Form verfügt, sondern als diskreter Abtastwert durch das Raster „stufig“ sichtbar wird. Bei einem digitalen Audiosignal können die Abtastwerte ebenfalls nicht als konstant dargestellt werden, weil bei der Vergrößerung dieses Signal treppenartig verläuft – erst der Rekonstruktionsfilter glättet die Treppenbildung. Analog dazu werden bei Bildern Kanten durch geeignete Filter wieder angenähert.
Wir analysieren Defekte an allen gängigen Datenträgern aller Hersteller - kostenlos und unverbindlich.
Sie erhalten anschließend ein Festpreis-Angebot für die Wiederherstellung Ihrer Daten. Kosten fallen nur an, wenn Sie uns beauftragen und wir Ihre Daten retten können!
100% kostenlose Analyse anfordern!Bildpunkte in der Computergrafik
Die Bildinhalte in der Computergrafik liegen unter anderem als 3D-Szenenbeschreibung oder Vektorgrafik vor. Diese Bildinhalte werden abgetastet, damit sich die von der Bildbeschreibung definierte Signale in eine Rastergrafik umwandeln. Um zu bestimmen, wie die ursprünglichen Farben in die Farbe des Bildpunktes einfließen, wird ein Rekonstruktionsfilter verwendet. Die Bildpunkte als quadratisch zu betrachten wäre also nur dann möglich und sinnvoll, wenn ein Box-Filter statt einem Rekonstruktionsfilter eingesetzt wird. Die Farbkodierung im Pixel definiert sich über die Farbtiefe und den Farbraum.
In der Praxis bedeutet das: Beim Rasterisieren entscheidet das Sampling (Abtastung) zusammen mit der Filterung, welcher intensitätsgewichtete Flächenanteil in den einzelnen Bildpunkt einfließt. Nach dem Abtasttheorem (Nyquist) führen zu geringe Abtastraten zu Aliasing. Eine sorgfältige Wahl der Filter (Box, Tent, Gaussian, Lanczos) verringert sichtbare Treppen und Moiré.
Bei einem Binärbild handelt es sich um ein einfachstes Beispiel, wo ein Pixel den Wert Schwarz/Weiß speichert. Die Rastergrafiken enthalten neben Farbdaten auch einen Alphakanal mit Transparenzinformationen. Abhängig vom Grafikformat können auch andere beliebige Informationen bestimmten Formats gespeichert werden. Das von der Grafikkarte vorgegebene Format muss besonders bei der Bildschirmausgabe beachtet werden.
Moderne Workflows unterscheiden zudem zwischen Farbräumen (z. B. sRGB, Adobe RGB, DCI‑P3, Rec.2020) und Farbtiefen (8‑Bit, 10‑Bit, 12‑Bit pro Kanal). Farbmanagement und Gamma-Korrektur (typisch 2.2) sorgen dafür, dass ein Bildpunkt auf unterschiedlichen Anzeigegeräten möglichst gleich wahrgenommen wird. Bei der Transparenz kommen premultiplied Alpha und straight Alpha zum Einsatz, was Einfluss auf Kantenglättung und Komposition hat.
Weil die Bildauflösung sowie die Informationsgröße in einem Bildpunkt begrenzt sind, kann ein Bildpunkt die Wirklichkeit nur annähernd darstellen. Aufgrund der Begrenztheit kommt es zum Verlust von Bildinformationen und bei einigen Bildinhalten kann der Treppeneffekt oder Alias-Effekt beobachtet werden.
Um diesen Effekten entgegenzuwirken, bedient man sich in der Computergrafik unterschiedlicher Methoden unter der Bezeichnung „Antialiasing“. Das Antialiasing erfolgt beispielsweise durch die Kombination eines Tiefpasses mit einer Aperturkorrektur. Unscharfe Bilder entstehen beim Vergrößern, Drehen oder Verkleinern einer Rastergrafik. Die Pixel eines Bildschirms oder Bildsensors bestehen aus Flächen, die jeweils Grundfarbe Blau, Rot und Grün enthalten.
Gängige Verfahren der Kantenglättung und Interpolation:
- SSAA/MSAA (Super-/Multisampling): Höhere Abtastrate pro Bildpunkt; sehr gute Qualität, höhere Rechenlast.
- FXAA/SMAA (Post-Processing): Schnelle, bildbasierte Glättung, geringer Ressourcenbedarf, leichte Weichzeichnung möglich.
- TAA (Temporales Antialiasing): Nutzt Informationen aus mehreren Frames, effektiv gegen Flimmern, erfordert gutes Tuning.
- Skalierung: Nächster Nachbar (pixelig), bilinear (weich), bikubisch (glatter), Lanczos (detailtreu), je nach Inhalt unterschiedlich geeignet.
Zuständig für die Farbe eines Bildpunktes sind aneinander anliegende Subpixel, die eine feinere Struktur vorweisen und damit die horizontale Bildauflösung bei der Rasterung erhöhen, was auch als Subpixel-Rendering bezeichnet wird. Möglich sind dreiecksförmige, weiße oder abwechselnd angeordnete Subpixel.
Aktuelle Displays nutzen verschiedene Subpixel-Anordnungen (RGB-Stripe, BGR, PenTile). Subpixel-Rendering kann Textschärfe verbessern, birgt jedoch Risiken wie Farbsäume bei unpassender Reihenfolge. Panel-Technologien (LCD, OLED) beeinflussen zudem die Lichtstärke und das Verhalten einzelner Subpixel.
Die Größe eines Bildpunktes ist vom Gerät abhängig. Bei einem Scanner oder einem Bildschirm lässt sich die Pixeldichte als dpi und ppi angeben. Die Pixeldichte bei modernen Computerbildschirmen liegt bei 100 ppi, was 0,3 mm pro Pixel entspricht. Fernseher haben meist niedrigere Pixeldichte, während Smartphones, Digitalkameras und Scanner den Wert um die 1000 ppi erreichen. Die maximale Anzahl der Pixel in Bildsensoren gibt man in Megapixel an. Der Begriff „Megapixel“ ist in der Digitalfotografie bei der Angabe der Bildauflösung gebräuchlich und steht für eine Million Pixel. Das Seitenverhältnis eines Bildpunktes darf unregelmäßig sein, wobei der Abstand und die Größe eines Pixels im Verhältnis zur Auflösung eines Bildes auf dem Bildschirm die Erkennbarkeit und Lesbarkeit von Grafiken und Texten beeinflussen.
Aktualisierte Einordnung: Während Bildschirme lange um 90–110 ppi lagen, sind heute hochauflösende Desktop-Displays mit ca. 140–220 ppi verbreitet (z. B. 27″/5K ≈ 218 ppi). Smartphones erreichen oft 350–600 ppi, Headsets teils darüber. Scanner geben ihre optische Abtastung in dpi an (mehrere Tausend dpi bei hochwertigen Geräten). In der Praxis ist die Sehabstand‑abhängige Winkelauflösung entscheidend: Höhere Pixeldichte lohnt besonders bei kurzem Betrachtungsabstand.
- Typische Bereiche: Notebook 110–200 ppi, Monitor 90–220 ppi, TV 50–120 ppi (je nach Größe/Distanz), Mobilgerät 300–600+ ppi.
- Pixel‑Aspect‑Ratio (PAR): In historischen Videos (z. B. SD) nicht quadratisch, heute bei progressivem Computer‑Content überwiegend quadratisch.
- Megapixel: Maß für Sensor‑/Bildgröße (z. B. 12–50+ MP), sagt ohne Pixelpitch und Optik jedoch wenig über Detailtreue und Rauschen aus.
- Device‑Pixel vs. logische Pixel: Betriebssysteme skalieren Oberflächen (HiDPI), um Lesbarkeit bei hohen ppi zu erhalten.
Häufige Fragen und Antworten
Was ist ein Bildpunkt?
Ein Bildpunkt, auch Pixel genannt, bezeichnet den Farbwert sowie für dessen Darstellung benötigten Flächenelement bei einem Bildschirm einer digitalen Grafik. Beim Begriff Pixel handelt es sich um eine Kombination englischer Wörter „pictures“ und „element“. Gebräuchlich ist auch die Abkürzung „px“.
Zusätzlich gilt: Ein Pixel ist die kleinste adressierbare Einheit eines Rasterbildes. Es ist ein Abtastwert, der numerische Farbkomponenten (z. B. Rot, Grün, Blau und optional Alpha) enthält. Seine physische Größe entsteht erst durch das Ausgabegerät (Monitor, Drucker, Sensor), nicht durch den digitalen Wert selbst.
- Inhaltsebene: numerische Werte (Farbtiefe, Farbraum, ggf. Transparenz)
- Ausgabeebene: Fläche auf dem Display (abhängig von Pixeldichte/ppi)
- Wahrnehmungsebene: Sichtbarkeit variiert mit Sehabstand und Kontrast
Woher stammt die Bezeichnung „Bildpunkt“?
Der Begriff „Bildpunkt“ wurde bereits im 19. Jahrhundert in der Optik verwendet. 1884 bezeichnete der Bildpunkt die Anzeigeeinheit eines elektronischen Teleskops von Paul Nipkow. Bereits 1911 war die Kombination „picture element“ in USA üblich. Seitdem die ersten Computer in den 50er und 60er Jahren des 20. Jahrhunderts die Anzeige, Bearbeitung und das Einscannen von Bildern ermöglicht haben, kamen die Fachbegriffe wie „spot“, „matrix element“ oder „resolution element“ zum Einsatz.
1965 tauchte der Begriff „Pixel“ in der Fachliteratur auf und etablierte sich in den folgenden Jahrzehnten parallel zur Entwicklung digitaler Video‑ und Bildsysteme. Historische Bezeichnungen werden heute weiterhin aus Gründen der Einordnung erwähnt, während „Pixel/Bildpunkt“ als moderner Standardbegriff verwendet wird.
Wie werden Bildpunkte in der Computergrafik verwendet?
Die Bildinhalte in der Computergrafik liegen unter anderem als 3D-Szenenbeschreibung oder Vektorgrafik vor. Diese Bildinhalte werden abgetastet, damit sich die von der Bildbeschreibung definierte Signale in eine Rastergrafik umwandeln. Um zu bestimmen, wie die ursprünglichen Farben in die Farbe des Bildpunktes einfließen, wird ein Rekonstruktionsfilter verwendet. Die Bildpunkte als quadratisch zu betrachten wäre also nur dann möglich und sinnvoll, wenn ein Box-Filter statt einem Rekonstruktionsfilter eingesetzt wird. Die Farbkodierung im Pixel definiert sich über die Farbtiefe und den Farbraum.
In der Pipeline werden Inhalte gesampelt, gefiltert und auf die Bildauflösung projiziert. Unzureichende Abtastung erzeugt Aliasing. Farbmanagement (sRGB, P3, Rec.2020) und Farbtiefe (8–12 Bit/Kanal) beeinflussen Präzision und Banding. Für Transformationen (Skalieren, Rotieren) entscheiden Interpolationsverfahren (bilinear, bikubisch, Lanczos) über Detailerhalt und Schärfe.
- 3D‑Rendering: Rasterizer/Shader berechnen pro Pixel Farbe, Tiefe, Transparenz
- 2D‑Vektor: Kurvenflächen werden in Pixelraster umgerechnet
- Compositing: Pixel werden unter Beachtung von Alpha korrekt überlagert
Wie wirkt sich die Pixeldichte auf die Darstellung von Bildpunkten aus?
Die Größe eines Bildpunktes ist vom Gerät abhängig. Bei einem Scanner oder einem Bildschirm lässt sich die Pixeldichte als dpi und ppi angeben. Die Pixeldichte bei modernen Computerbildschirmen liegt bei 100 ppi, was 0,3 mm pro Pixel entspricht. Fernseher haben meist niedrigere Pixeldichte, während Smartphones, Digitalkameras und Scanner den Wert um die 1000 ppi erreichen. Die maximale Anzahl der Pixel in Bildsensoren gibt man in Megapixel an. Der Begriff „Megapixel“ ist in der Digitalfotografie bei der Angabe der Bildauflösung gebräuchlich und steht für eine Millionen Pixel. Das Seitenverhältnis eines Bildpunktes darf unregelmäßig sein, wobei der Abstand und die Größe eines Pixels im Verhältnis zur Auflösung eines Bildes auf dem Bildschirm die Erkennbarkeit und Lesbarkeit von Grafiken und Texten beeinflussen.
Ergänzend gilt: Heute liegen viele Desktop‑Displays bei 140–220 ppi, Mobilgeräte bei 350–600+ ppi. Ein höherer ppi‑Wert reduziert sichtbare Kanten und verbessert die Lesbarkeit aus der Nähe. Betriebssysteme skalieren Inhalte (HiDPI), um bei hoher Pixeldichte eine angenehme Schriftgröße zu erhalten. Für Drucksysteme ist die Punktdichte (dpi) maßgeblich, die sich technisch von ppi unterscheidet.
- Formelhinweis: ppi = Pixel diagonal / Zoll diagonal
- Praxis: Höhere Pixeldichte lohnt vor allem bei kurzem Betrachtungsabstand
- Video: Nichtquadratische Pixel (PAR) können Seitenverhältnisse beeinflussen





