Skip to main content

Was ist Informatik?

Was ist Informatik?

Informatik setzt sich aus den Begriffen Information und Automatik zusammen.
Es geht darum, Komponenten so zu nutzen, dass sie Vorteile und Fortschritt im Leben ermöglichen.

Eine der grundlegendsten Techniken in der Informatik basiert auf dem Prinzip der Nullen und Einsen.
Dabei steht:

  • 0 für „Strom aus“

  • 1 für „Strom an“

Interessanterweise wurde in frühen Experimenten auch ein dritter Zustand erforscht – etwa ein Signal bei halber Spannung (0,5).
Hätte sich diese Technologie durchgesetzt, wäre unsere Welt heute vielleicht schneller, aber auch deutlich komplexer.
Was genau passiert wäre, bleibt reine Spekulation.

Zustände verstehen

Wir haben gelernt:

  • 0 ist ein definierter Zustand (z.B. Lampe aus)

  • 1 ist ein anderer Zustand (z.B. Lampe an)

Mit dieser einfachen Logik können wir Geräte steuern:

Lampe an? → 1
Lampe aus? → 0

Doch wie wird aus diesen Zuständen ein ganzer Monitor mit Buchstaben und Bildern?

Von Nullen und Einsen zu komplexen Darstellungen

Computer arbeiten intern immer nur mit 0 und 1 – der sogenannten Maschinensprache.
Um komplexere Informationen darzustellen (z.B. Buchstaben, Zahlen, Zeichen), müssen diese binären Zustände codiert werden.

Hier kommen Betriebssysteme wie Windows oder Linux ins Spiel.
Sie stellen eine Schnittstelle bereit, die die reine Maschinensprache übersetzt und nutzbar macht.

Auch Programmiersprachen wie Java, C++, C# oder Python nutzen Codierungen, damit Menschen Maschinen effizient anweisen können.

Zeichencodierung: ASCII und UTF-8

Schon sehr früh mussten einfache Zeichen wie Buchstaben und Satzzeichen eindeutig dargestellt werden.
Hierfür wurde der Standard ASCII (American Standard Code for Information Interchange) entwickelt.

ASCII ist eine der ältesten und einfachsten Codierungen – aber nur auf englische Zeichen beschränkt.
UTF-8 ist der moderne, weltweite Standard, der fast alle Schriftzeichen aller Sprachen unterstützt.

Warum ist UTF-8 besser?

Die Antwort liegt näher, als man denkt:
UTF-8 unterstützt mehr Zeichen, weil es mehr Bits nutzt.

Was sind Bits eigentlich?

Den Begriff „Bit“ hört man oft – bei 8 Gigabyte RAM, 10 Terabyte Festplatten, und so weiter.
Aber was ist ein Bit?

  • 0 entspricht 1 Bit

  • 1 entspricht ebenfalls 1 Bit

Das wirkt auf den ersten Blick verwirrend, ist aber korrekt.

012 Bits
112 Bits
102 Bits

Hier sieht man:

  • Die Anzahl der Bits hängt von der Länge der Zeichenfolge ab, nicht vom Inhalt.

  • Nur 0 und 1 sind erlaubt (binär).

Beispiel:

0000 0000 000012 Bits

Bytes und Halfbytes

In der Informatik unterteilen wir Bits gern, um den Überblick zu behalten:

  • 4 Bitsein Halbbyte (auch „Nibble“ genannt), z.B. 0000

  • 8 Bitsein volles Byte, z.B. 0000 0000

Merke:
Ein Byte besteht immer aus 8 Bits.

Um Übersichtlichkeit zu erreichen, werden Zahlen oft in Halbbyte-Gruppen getrennt (z.B. 0000 0000).

ASCII vs. UTF-8

  • ASCII benutzt 7 Bits → ergibt genau 2⁷ = 128 mögliche Kombinationen.

  • Jede dieser 128 Kombinationen steht für ein fest definiertes Zeichen (z.B. A, B, a, b, !, ?).

ASCII ist damit ausreichend für einfache Texte, aber nicht für andere Sprachen oder Sonderzeichen.

→ Deshalb gibt es UTF-8.

Wie funktioniert UTF-8?

UTF-8 ist ein variabler Standard:

  • Es verwendet mindestens 8 Bits (1 Byte) für einfache Zeichen (wie bei ASCII),

  • kann sich aber erweitern auf 16, 24 oder sogar 32 Bits, um viel mehr Zeichen abzubilden.

Damit unterstützt UTF-8:

  • Lateinische Buchstaben

  • Sonderzeichen

  • Emojis 😄

  • Schriftzeichen aus anderen Sprachen (z.B. Arabisch, Chinesisch, Russisch)

Zusammengefasst:

  • Bit = kleinste Informationseinheit (0 oder 1)

  • 4 Bits = Halbbyte → 8 Bits = 1 Byte

  • ASCII → 7 Bits → 128 Zeichen

  • UTF-8 → variabel → viele tausend Zeichen

UTF-8 macht unsere heutige weltweite Kommunikation über das Internet überhaupt erst möglich.