Was ist der amerikanische Standardcode für den Informationsaustausch (ASCII)?


Der American Standard Code for Information Interchange (ASCII) ist ein Zeichenkodierungsstandard, der in Computern und elektronischen Geräten zur Darstellung von Text verwendet wird. ASCII wurde in den frühen 1960er Jahren entwickelt und war ursprünglich für Telekommunikationsgeräte konzipiert. Später wurde es zu einem der am weitesten verbreiteten Kodierungsstandards zur Darstellung von Buchstaben, Zahlen und Steuercodes in Computern und anderen digitalen Geräten.

ASCII verwendet einen 7-Bit-Binärcode zur Darstellung von 128 verschiedenen Zeichen. Dazu gehören 33 nicht druckbare Steuerzeichen (die steuern, wie Text verarbeitet wird) und 95 druckbare Zeichen, darunter das englische Alphabet (sowohl Groß- als auch Kleinbuchstaben), Ziffern (0-9), Satzzeichen und einige andere Symbole.

Ein kurzer historischer Überblick über ASCII

In den frühen 1960er Jahren entwickelte ein von Robert W. Bemer geleitetes Komitee ASCII, um die Art und Weise zu standardisieren, wie Computer Buchstaben, Zahlen und bestimmte Steuerzeichen darstellen und die Kommunikation zwischen verschiedenen Geräten und Systemen zu erleichtern.

Im Jahr 1963 veröffentlichte die American Standards Association (heute ANSI, American National Standards Institute) erstmals ASCII als Standard für Telekommunikations- und Computergeräte. Fünf Jahre später wurde eine überarbeitete Version veröffentlicht, die Kleinbuchstaben und mehr Steuerzeichen hinzufügte und ASCII so erweiterte, dass es vielseitiger und für ein breiteres Anwendungsspektrum geeignet war.

In den 1970er und 1980er Jahren wurde ASCII auf verschiedenen Plattformen und Technologien weit verbreitet und etablierte sich als De-facto-Standard für Textdateien auf Computern und im Internet. Seine Einfachheit und Effizienz machten es ideal für frühe Computersysteme, die über begrenzte Rechenleistung und Speicherkapazität verfügten. Die Internationale Organisation für Normung (ISO) hat ASCII 1986 als Teil der Norm ISO/IEC 646 übernommen und damit ihren Status als internationale Norm gestärkt.

Während ASCIIs 7-Bit Das Design reichte für englische Zeichen aus, es fehlte die Unterstützung für andere Sprachen und Sonderzeichen. Diese Einschränkung führte zur Entwicklung erweiterter ASCII- und anderer Codierungsschemata wie ISO 8859-1 (Latin-1), um Zeichen aus anderen Sprachen zu berücksichtigen. Mit der Einführung der Unicode- und UTF-8-Kodierung in den frühen 1990er Jahren wurden die Einschränkungen von ASCII behoben, indem ein universeller Zeichensatz bereitgestellt wurde, der alle bekannten Zeichen und Symbole aus allen Schriftsystemen der Welt umfasst und gleichzeitig mit ASCII kompatibel ist.

Warum ist ASCII wichtig?

ASCII spielt aus mehreren Gründen eine zentrale Rolle in der Informatik und der digitalen Kommunikation, darunter:

  • Standardisierte Kodierung. ASCII bot eine konsistente Methode zur Zeichenkodierung und ermöglichte eine einheitliche Datendarstellung über verschiedene Geräte und Systeme hinweg.
  • Effizienz und Einfachheit. Mit seinem 7-Bit-Design war ASCII effizient und einfach und eignete sich daher gut für frühe Computer, die über begrenzte Rechenleistung und Speicher verfügten. Die Kodierung von Zeichen auf diese Weise ermöglichte die Entwicklung früher textbasierter Schnittstellen, Programmiersprachen und Dateiformate.
  • Interoperabilität. Die weite Verbreitung von ASCII machte es zu einer gemeinsamen Sprache für Computer und Geräte. Diese Interoperabilität war entscheidend für das Wachstum des Internets und den Informationsaustausch über verschiedene Plattformen und Technologien hinweg.
  • Legacy und Kompatibilität. Viele moderne Codierungsschemata wie UTF-8 sind abwärtskompatibel mit ASCII erstellt. Systeme, die diese neueren Standards verwenden, können weiterhin ASCII-codierte Daten verstehen und verarbeiten und stellen so die Langlebigkeit und Benutzerfreundlichkeit von ASCII-codierten Inhalten sicher.
  • Grundlage für die Weiterentwicklung. ASCII ebnete den Weg für die Entwicklung umfassenderer Kodierungsstandards wie Unicode, der eine breitere Palette von Zeichen umfasst, um mehrere Sprachen und Symbole zu unterstützen. Unicode erweitert die Grundidee von ASCII auf eine globale Ebene und ermöglicht die Darstellung von Texten in praktisch allen geschriebenen Sprachen.
  • Pädagogischer Wert. Das Erlernen von ASCII ist für Studenten und neue Programmierer oft ein Einstiegspunkt, um mehr über Zeichenkodierung, die binäre Darstellung von Daten und die Geschichte der Informatik zu verstehen. Es schafft die Grundlage für komplexere Themen der Informatik und Informationstechnologie.

Wie funktioniert ASCII?

ASCII funktioniert, indem es jedem Zeichen in seinem Satz einen eindeutigen 7-Bit-Binärcode zuweist und es Computern und elektronischen Geräten ermöglicht, Text mithilfe von Binärdaten darzustellen und zu bearbeiten. Dieses 7-Bit-Schema ermöglicht 128 verschiedene Kombinationen (2^7), entsprechend den 128 eindeutigen Zeichen des ASCII-Standards. Zu diesen Zeichen gehören 33 (nicht druckbare) Steuerzeichen, die die Textformatierung und Übertragungssteuerung verwalten, sowie 95 druckbare Zeichen, darunter das englische Alphabet (in Groß- und Kleinbuchstaben), Ziffern (0-9), Satzzeichen und eine Auswahl von spezielle Symbole.

Die Darstellung von Zeichen als Binärzahlen ermöglicht eine effiziente Verarbeitung, Speicherung und Übertragung von Textinformationen in digitaler Form und gewährleistet so die Einheitlichkeit über verschiedene Computer- und Telekommunikationssysteme hinweg. Wenn ein Benutzer eine Taste auf einer Tastatur drückt, wird der entsprechende ASCII-Binärcode generiert und an den Computer gesendet, der ihn dann als festgelegtes Zeichen verarbeitet. Dieses System unterstützt die Erstellung, Anzeige und den Austausch von Text in den meisten Computersystemen und bildet die Grundlage für Dateiformate, Datenübertragungsprotokolle usw Programmiersprachen.

ASCII-Zeichen

ASCII definiert 128 Zeichen, die in zwei Hauptgruppen unterteilt sind: Steuerzeichen (nicht druckbare Zeichen) und druckbare Zeichen. Jedes Zeichen wird durch eine 7-Bit-Zahl im Bereich von 0 bis 127 dargestellt. Nachfolgend finden Sie eine vereinfachte Liste und Erklärung dieser Zeichen:

Steuerzeichen (0–31 und 127)

Steuerzeichen sind nicht druckbare. Sie werden verwendet, um den Fluss oder das Format von Text in Geräten und Kommunikation zu steuern:

0-31: Zur Textformatierung oder Gerätesteuerung werden verschiedene Steuercodes verwendet. Beispiele beinhalten:

  • 0 (NUL, Null): Wird in Programmiersprachen als String-Abschlusszeichen verwendet.
  • 7 (BEL, Bell): Bewirkt, dass das Gerät einen akustischen Alarm ausgibt.
  • 8 (BS, Rücktaste): Bewegt den Cursor um eine Position zurück.
  • 9 (TAB, horizontaler Tab): Bewegt den Cursor zum nächsten Tabstopp.
  • 10 (LF, Zeilenvorschub): Bewegt den Cursor nach unten in die nächste Zeile.
  • 13 (CR, Wagenrücklauf): Bewegt den Cursor an den Anfang der Zeile.
  • 27 (ESC, Escape): Wird zum Einleiten von Escape-Sequenzen verwendet.

127 (DEL): Ursprünglich dazu gedacht, die Löschung eines Zeichens anzuzeigen

Druckbare Zeichen (32–126)

Zu den druckbaren Zeichen gehören Buchstaben, Ziffern, Satzzeichen und einige Sonderzeichen:

  • 32 (Leerzeichen): Ein Leerzeichen im Text.
  • 33-47: Enthält Satzzeichen und Symbole wie !"#$%&'()*+,-./.
  • 48-57: Stellt Ziffern dar 0 zu 9.
  • 58-64: Zusätzliche Satzzeichen und Symbole einschließlich :;<=>?@.
  • 65-90: Großbuchstaben A zu Z.
  • 91-96: Enthält [\]^_und Backtick `.
  • 97-122: Kleinbuchstaben a zu z.
  • 123-126: Symbole {|} und ~.