컴퓨터 원리

컴퓨터가 이해하는 언어

김푸른초푸른 2020. 12. 12. 18:14

1. 비트(0111000)

-> 비트라는 말은 한 조각이란 의미.

초기 컴퓨터는 0,1로 껐다, 켰다를 의미로 사용하였다. 

그래서 참, 거짓 등으로 해석하여 참이면 실행시키고 거짓이면 중지가 된다.

 

2. 코드 (암호, 약속)

= 0고 1로 약속하자! 

코드를 주고 해당된 이름을 받아와 인간이 보기 편하게 하는 것

EX) 141414번 사원번호를 컴퓨터가 이해하면 141414번 사원의 이름으로 표현하게 한 것

 

3. 바이트 (한 입으로 들어감)

= 영어를 모두 표현할 수 있는 최소화의 크기

-> 영문은 알파벳 + 영어를 컴퓨터에게 이해하기 위해서

8개의 비트를 이용하여 1바이트가 된다. 

 

4. 사람의 언어에서 컴퓨터의 언어로

1) 사람언어에서 컴퓨터언어로 

= 인코딩

 

2) 컴퓨터언어에서 사람언어로

= 디코딩 

 

* 디코딩 오류 

= 전달할땐 아스키 코드(영어 - 8비트(1바이트))로 전달하지만 다른 코드로 받을 때 생기는 오류

EX) 화면상 글자가 다 깨짐 

 

-> 알파벳 이외에는 유니코드로 16비트(2바이트)를 이용하여 표현한다.

 

'컴퓨터 원리' 카테고리의 다른 글

웹 접근성  (0) 2021.04.09
이클립스  (0) 2020.11.22
프론트엔드 & 백엔드 차이점  (0) 2020.08.19
돈이 되는 데이터  (0) 2020.07.04
데이터 디지털화  (0) 2020.07.04