2013-02-11 9 views
5

Chociaż jestem w stanie zrozumieć znaczenie kodowania i dekodowania z Wikipedii, nie jestem w stanie zrozumieć, dlaczego każdy język programowania ich potrzebuje? A jeśli odpowiedź jest związana z możliwością odczytania danych z zewnętrznego źródła, takich jak baza danych, to dlaczego wielu z nich stosuje różne schematy kodowania?Dlaczego potrzebne jest kodowanie i dekodowanie dla dowolnego języka programowania/bazy danych?

E.x. Python posiada domyślne kodowanie ASCII
Java polega na O.S bazowych,
DB2 ma IBM-1252

Odpowiedz

18

Większość ludzi lubi pracować z tekstem.

Jednak pamięć komputera może działać tylko z bajtami.

Kodowanie to proces konwertowania tekstu na bajty.

W ciągu ostatnich kilku dekad opracowano wiele różnych schematów kodowania dla różnych celów, takich jak zwięzłość, zgodność lub internacjonalizacja.

Dziś wszystko powinno po prostu używać UTF8. (Niestety, nie wszystko jeszcze)

+4

+1 dla * wszystko powinno po prostu użyć UTF-8 * (Czy możesz nam słyszeć, Redmond? Steenkin Nikt nie chce już najdawniejszych stron kodowych DOS.) – Ingo

+0

Zauważ, że kodowanie/dekodowanie może również konwertować z jednego do innego binarnym (mp3 , mpeg4 itp.). – Pithikos

+0

@Pithikos: To inna forma kodowania. – SLaks

3

Interakcja programisty i użytkownika z prostym formatem zwykłego tekstu w postaci angielskiego lub innego czytelnego dla ludzi języka, ale komputer nie wie, jak sobie z tym poradzić. Komputer może obsłużyć tylko bajty, więc Kodowanie i konieczne jest dekodowanie.

Cyt z http://searchnetworking.techtarget.com/definition/encoding-and-decoding:

W komputerach kodowania jest proces wprowadzania sekwencji znaków (litery, cyfry, znaki interpunkcyjne i pewne symbole) w specjalistycznego formatu dla wydajnej transmisji lub przechowywanie. Dekodowanie to proces odwrotny - konwersja zakodowanego formatu z powrotem do oryginalnej sekwencji znaków. Kodowanie i dekodowanie są używane w komunikacji, sieciowaniu i przechowywaniu danych. Termin ten jest w szczególności stosowany w radiowych (bezprzewodowych) systemach komunikacyjnych.

Terminy kodowanie i dekodowanie są często używane w odniesieniu do konwersji konwersji analogowo-cyfrowej i cyfrowej na analogową . W tym sensie terminy te mogą mieć zastosowanie do dowolnej formy danych, w tym tekstu, obrazów, audio, wideo, multimediów, programów komputerowych, lub sygnałów w systemach czujników, telemetrii i sterowania. Kodowanie nie powinno być mylone z szyfrowaniem, procesem, w którym dane są celowo zmieniane w celu ukrycia ich zawartości. Szyfrowanie może być wykonane bez zmiany kodu, w którym zawartość jest zawarta, a kodowanie może być wykonane bez celowego ukrywania zawartości.
Kod używany przez większość komputerów do plików tekstowych jest znany pod nazwą ASCII (Amerykański Standardowy Kod Wymiany Informacji wymawiany jako ASK-ee). ASCII może przedstawiać wielkie i małe litery alfabetu, cyfry, znaki interpunkcyjne i wspólne symbole. Inne powszechnie używane kody to Unicode, BinHex, Uuencode i MIME. W komunikacji danych , kodowanie Manchester jest specjalną formą kodowania , w której cyfry binarne (bity) reprezentują przejścia pomiędzy stanami logicznymi wysokiego i niskiego stanu.W łączności radiowej istnieje wiele metod kodowania i kodowania, z których niektóre są wykorzystywane tylko przez wyspecjalizowane grupy osób (na przykład amatorskich operatorów radiowych). Najstarszy kod , pierwotnie używany w telegrafie stacjonarnym w XIX wieku, to kod Morse'a.

Powiązane problemy