A conversão analógico-digital é o processo pelo qual um sinal analógico (contínuo) é transformado num sinal digital (discreto, ou seja descontínuo). Enquanto que um sinal analógico o nível do sinal varia de forma contínua no tempo, um sinal digital é feito de pequenos "saltos" descontínuos (na verdade, se formos picuinhas, todos os sinais digitais continuam a ser "contínuos", mas isso é outra história  - para efeitos práticos e de simplicidade, consideremos que um sinal digital é verdadeiramente discreto). Em termos simples, é converter um sinal analógico para zeros e uns. Converter um sinal para zeros e uns (binário) é necessário para processá-lo em sistemas digitais (computadores, processadores digitais, etc). O processo de transformação do sinal analógico num sinal digital implica que o sinal seja amostrado (medido) em intervalos de tempo (dados pela taxa ou frequência de amostragem ou sampling rate). Em cada amostragem, o nível do sinal é convertido (arredondado) num dos possíveis "patamares" de níveis do sinal, processo este a que se chama quantização. Ao número destes patamares chama-se profundidade de bits ou bit depth. Quanto maior a profundidade de bits, mais patamares conseguimos ter, e mais fiel será o sinal (e menor o erro relativamente ao sinal analógico). O mesmo acontece com a taxa de amostragem: quantas mais "medições" fizermos do sinal analógico, mais fiel será o sinal digital.   Conversão analógica (a vermelho) para digital (a preto). Foi usado um bit depth de 4 bits, o que dá 16 níveis discretos possíveis (2^4). Imagem de http://commons.wikimedia.org/wiki/File:Pcm.svg   A conversão do sinal pressupõe sempre um erro, que advém da transformação do sinal contínuo num sinal digital com vários "patamares". Este erro é dado pela diferença do nível do sinal digital para o analógico (como se pode ver na imagem acima, é a diferença entre o sinal preto e vermelho.