bit

Informatik

2022

Vi förklarar vad en bit är, vad är dess olika användningsområden och metoderna för att beräkna denna beräkningsenhet.

En bit är den minsta informationsenhet som datoranvändning använder.

Vad är lite?

I datoranvändning kallas bit (förkortning på engelska förBinär siffra, det vill säga "binär siffra") till ett värde från det binära numreringssystemet. Detta system heter så eftersom det bara består av två basvärden: 1 och 0, med vilka ett oändligt antal binära villkor kan representeras: på och av, sant och falskt, närvarande och frånvarande, etc.

En bit är alltså den minsta informationsenhet som används av beräkningar, vars system alla stöds av nämnda binära kod. Varje informationsbit representerar ett specifikt värde: 1 eller 0, men genom att kombinera olika bitar kan många fler kombinationer erhållas, till exempel:

2-bitars modell (4 kombinationer):

00 - Båda av

01 - Först ut, andra ut

10 - Först på, andra av

11 - Båda på

Med dessa två enheter kan vi representera fyra punktvärden. Anta nu att vi har 8 bitar (en oktett), som i vissa system motsvarar abyte: du får 256 olika värden.

På detta sätt fungerar det binära systemet och uppmärksammar värdet på biten (1 eller 0) och dess position i den representerade strängen: om den är på och visas i en position till vänster fördubblas dess värde, och om det visas till höger, halverad. Till exempel:

För att representera talet 20 i binärt

Binärt värde netto10100

Numeriskt värde per position: 168421

Resultat: 16 +0 +4 +0 + 0 =20

Ett annat exempel: att representera talet 2,75 i binärt, förutsatt att referensen i mitten av figuren:

Binärt värde netto01011

Numeriskt värde per position: 4210.50.25

Resultat: 0 +2 +0 +0,5 + 0,25 =2,75

Bitarna i värde 0 (av) räknas inte, bara de med värde 1 (på) och deras numeriska ekvivalent ges baserat på deras position i strängen, för att på så sätt bilda en representationsmekanism som senare kommer att tillämpas på alfanumeriska tecken (kallad ASCII).

På detta sätt kan verksamheten i mikroprocessorer av datorer- Det kan finnas 4, 8, 16, 32 och 64 bitars arkitekturer. Det betyder att mikroprocessorn hanterar det interna antalet register, det vill säga den beräkningskapacitet som den aritmetisk-logiska enheten besitter.

Till exempel den första datorer x86-serien (Intel 8086 och Intel 8088) hade processorer 16-bitars, och den märkbara skillnaden mellan deras hastigheter hade inte så mycket att göra med deras processorkapacitet, som med extra hjälp av en 16-bitars respektive 8-bitars buss.

På liknande sätt används bitar för att mäta lagringskapaciteten hos ett digitalt minne.

!-- GDPR -->