Key Take Away
- ASCII ist ein Zeichenkodierungsstandard, der zur Darstellung von Text einen 7-Bit-Binärcode verwendet, während EBCDIC ein 8-Bit-Zeichenkodierungsstandard ist, der auf IBM-Großrechnersystemen verwendet wird.
- ASCII-Codes sind mit verschiedenen Geräten und Systemen kompatibel, während EBCDIC auf IBM-Großrechnern verwendet wird.
- ASCII benötigt weniger Speicher und ist häufiger in Computeranwendungen zu finden, während EBCDIC mehr Speicher benötigt und außerhalb von Mainframe-Systemen weniger verbreitet ist.

Was ist ASCII?
ASCII steht für American Standard Code for Information Exchange. Es ist ein Codierungssystem, das Zahlen verwendet, um Ziffern, Buchstaben und Symbole darzustellen. Es wurde aus einem Telegrafencode entwickelt. Es wurde erstmals 1963 als Fernschreibercode für American Telephone & Telegraph TWX verwendet. Bis zum Jahr 2007 war es der am meisten akzeptierte Code. Im Laufe der Zeit existierten jedoch viele Variationen dieses Codes, einschließlich nicht englischer Buchstaben, Währungen und anderer Symbole.
Die Ziffer steht für 1,2,3 usw., a, b, c Buchstaben dabei! $ und # sind Symbole. ASCII ermöglicht es, jeden Text in eine Zahl umzuwandeln und zu speichern. Mit Zahlen wird das Speichern von Informationen im Speicher des Computers einfacher.
ASCII verwendet 7 Bits, um einen einzelnen Buchstaben, ein Symbol oder eine Ziffer darzustellen. ASCII verwendet nur kurze beschreibende Phrasen für jedes Steuerzeichen. Es bedeutet maximal 128 Zeichen (2 Potenzen). Der ASCII-Wert von BB ist 66, während der Wert von b 98 ist.
Codes 20 hex bis E hex, die als druckbare Zeichen bekannt sind, bezeichnen Buchstaben, Satzzeichen, Ziffern und verschiedene Symbole. Insgesamt gibt es 95 druckbare Zeichen. Code 20 hex bezeichnet Leerzeichen, während Code 7F hex das Löschen von nicht druckbaren Zeichen bezeichnet.
Was ist EBCDIC?
Es ist ein 1963-Bit-Binärcode, der 6 von IBM entwickelt und hauptsächlich in ihren Computersystemen verwendet wird. Es wurde entwickelt, um den binär codierten Dezimal-Austauschcode zu erweitern, der erstellt wurde, um Code in zwei Zonen mit XNUMX Bit darzustellen.
Es stellt die Buchstaben, Symbole, Ziffern usw. eindeutig dar, indem acht Bits jedes Zeichens in zwei 4-Bit-Zonen unterteilt werden. Ein Teil dieser Zone stellt die Art des Zeichens dar, dh Ziffer, Satzzeichen, Kleinbuchstaben, Großbuchstaben usw., während der andere Teil den oberflächenspezifischen Wert darstellt.
Die häufigste Code-Newline-Konvention bei EBCDIC ist der NEL-Code (Following Line) zwischen den beiden Zeilen. Es gibt viele Variationen der ursprünglichen EBCDIC-Codeseiten für die Verwendung in verschiedenen Teilen der Welt. Dies kann für viele nicht-lateinische Sprachen wie Koreanisch, Griechisch, Chinesisch, Japanisch usw. verwendet werden. Es wurde auch als Quelle vieler Witze konzipiert. In der Computerspielserie von 1979 werden Verweise auf EBCDIC-Codes mehrmals erwähnt.
Unterschied zwischen ASCII und EBCDIC
- ASCII stellt 128 Zeichen dar, während EBCDIC 256 Zeichen darstellt.
- ASCII ordnet Zeichen in fortlaufender Reihenfolge an. Andererseits gruppiert EBCDIC 9 Zeichen gleichzeitig.
- ASCII ist effizienter und wird in Telekommunikations- und elektronischen Geräten verwendet. Andererseits ist EBCDIC weniger effizient und wird hauptsächlich für IBM-basierte Systeme wie IBM-Mainframe- und IBM-Midrange-Computerbetriebssysteme verwendet.
- Gleichzeitig wird ASCII in der Programmierung, bei Datenkonvertierungen, in der Grafik, in Textdateien usw. verwendet; EBCDIC wird nur für einige IBM-Systeme verwendet und funktioniert durch die gleichzeitige Bildung von Gruppen aus 9 Zeichen.
- ASCII ist eine 7-Bit-Schrift, die ein Kodierungssystem verwendet, das mit den meisten Unicode-Codes kompatibel ist. EBCDIC hingegen ist eine 8-Bit-Schrift, die ein Kodierungsschema verwendet, das mit den meisten Unicode-Codes nicht kompatibel ist.
Vergleich zwischen ASCII und EBCDIC
Parameter des Vergleichs | ASCII | EBCDIC |
---|---|---|
Definition | ASCII ist eine Zeichenkodierung für die elektronische Kommunikation | EBCDIC ist eine 8-Bit-Zeichenkodierung, die auf den Betriebssystemen von IBM-Großrechnern und Mittelklassecomputern verwendet wird. |
Bits | Verwendet 7 Bits, um ein Zeichen darzustellen. | Es verwendet 8 Bits, um das Zeichen darzustellen |
Vollständige Form | Amerikanischer Standardcode für den Informationsaustausch | Erweiterter binär codierter dezimaler Austauschcode. |
Wirkungsgrad | Effizienter | Weniger effizient |
Kompatibilität | Es ist mit modernen Kodierungen wie Unicode kompatibel. | Es ist nicht mit modernen Kodierungen kompatibel. |