BIT
Binary digital es una
expresión inglesa que significa “dígito binario” y que da lugar al término bit, su
acrónimo en nuestra lengua. El concepto se utiliza en la informática para nombrar a una unidad de medida de información que equivale a la selección entre dos alternativas que
tienen el mismo grado de probabilidad.
El bit, en otras palabras, es un dígito que forma parte
del sistema binario. A diferencia
del sistema decimal, que utiliza diez dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8 y 9), el sistema binario apela a
sólo dos (0 y 1). Un bit, por lo tanto,
puede representar a uno de estos dos valores (0 ó 1).
Para la informática, el bit es
la unidad más pequeña de información.
Permite representar dos valores diferentes (como abierto/cerrado o
verdadero/falso) y asignar dichos valores al estado de encendido (1) o apagado (0).
Si un bit nos permite representar dos valores (0 y 1), dos bits nos posibilitan
codificar cuatro combinaciones: 0 0, 0 1, 1 0 y 1 1. Cada una de estas cuatro
combinaciones, por su parte, permite representar cuatro valores diferentes.
Palabras, imágenes y números pueden representarse mediante secuencias de bits.
Esto significa que cuando, haciendo referencia a dos
dispositivos digitales, se representan con dos valores como es el caso del 0 0
significa que los dos están apagados mientras que si la representación es 0 1
lo que viene a mostrarse es que el primero está apagado y el segundo encendido.
La tercera representación posible es la 1 1 con la que
entenderíamos a la perfección que los dos mencionados dispositivos están
encendidos. Y finalmente está la 1 0 que significa que el primero, el de la
izquierda, está encendido y el segundo apagado.
BYTE
Un byte es una unidad de información formada por una seguidilla de bits adyacentes.
El diccionario de la Real Academia Española señala que byte es sinónimo de octeto (una unidad de información de ocho bits); sin
embargo, el tamaño del byte (que proviene del inglés bite, “mordisco”)
depende del código de caracteres en el que ha sido definido.
Es
importante subrayar el hecho de que no existe una norma que haya establecido de
manera oficial el símbolo que le corresponde al byte. Hasta el momento nos
encontramos que se identifica de dos maneras fundamentalmente. Así, en los
países de habla francesa se representa mediante una “o” mientras que en los
anglosajones corresponde a la “B”.
El término
fue propuesto por Werner Buchholz hace más de cinco décadas, en medio
del desarrollo de la computadora IBA 7030 Stretch. En un
principio, byte se utilizaba para mencionar las instrucciones que constaban de
4 bits y que permitían la inclusión de entre 1 y 16 bits por byte. Sin embargo,
el trabajo de diseño luego achicó el byte a campos de tres bits, lo que
permitió entre 1 y 8 bits en un byte. Con el tiempo, se fijó el tamaño de un
byte en 8 bits y se declaró como un estándar a partir de IBM S/360.
La noción de 8 bits permite describir, en la arquitectura
de los ordenadores o computadoras, las direcciones
de memoria y otras unidades de datos que pueden abarcar hasta 8 bits
de ancho. El concepto también permite hacer mención a la arquitectura de CPU y ALU que está basada en registros del mismo
ancho.
Se conoce
como nuble, por otra parte, a la
mitad de 1 byte de ocho bits. Así como el byte suele ser nombrado como octeto,
por el mismo motivo el noble puede mencionarse como semiocteto.
El byte
tiene diversos múltiplos, como kilobyte (1.000 bytes), megabyte (1.000.000 bytes), gigabyte (1.000.000.000 bytes) y terabyte (1.000.000.000.000 bytes), entre
otros.
Fundamental
es el papel que ejerce el byte y el resto de equivalencias citadas dentro del
ámbito de la informática pues se utilizan como medidas para referirse a la
capacidad que tienen diversos dispositivos tales como, por ejemplo, lo que es
la Memoria RAM, un cd, un DVD o un pen drive.
Así, por
ejemplo, sabemos que de manera habitual un cd suele tener una capacidad de
almacenamiento de unos 700 Megabytes, un DVD suele superar el Gigabyte y los
pen, por su parte, presentan actualmente una diversidad enorme de capacidad. De
esta manera en el mercado informático nos encontramos con dispositivos de este
tipo que tienen una capacidad de 4 gigabytes, de 8 gigabytes o de 16 gigabytes,
entre otras.
Una
tendencia esta última que también es propia de las llamadas tarjetas de memoria
o de los discos duros portátiles que actualmente cuentan con una gran variedad
en cuanto a esa propiedad de almacenamiento. Así, por precios bastantes
económicos e interesantes, en grandes almacenes dedicados al mundo de los
ordenadores pueden llegar a encontrarse discos duros de los citados que llegan
incluso a alcanzar 1 Terabyte.
MAGABYTE
Megabyte. También conocido como mega octeto se refiere a una
medida de cantidad en la informática, pertenece a los múltiplos del byte. La
palabra megabyte tiene su significado y proviene del prefijo mega que significa
grande. Se ve representada por las siglas MB y no Mb porque esto significaría
megabit. También a los megabytes se le conocen mundial-mente por megas.
Esta unidad es precedida por el Gigabyte, usándose para
especificar la capacidad de algunos dispositivos como memoria RAM, memorias de
tarjeta gráficas, de los CD-ROM, o el tamaño de algunos softwares y archivos.
GIGABYTE
El término gigabyte no forma parte del diccionario de la Real Academia Española (RAE) pero es muy usual en la informática. Se trata de
una unidad de medida que se simboliza como GB y que puede tener distintas
equivalencias de acuerdo a su uso.
En concreto
podemos establecer que el gigabyte equivale a 10 elevado a 9 byte. Además de
ello es interesante dejar patente que es un término que tiene su origen
etimológico en el griego. Y es que el primer vocablo que le da forma emana de
la palabra griega guigas que
puede traducirse como “gigante”.
Además de
todo lo expuesto también merece la pena dejar patente el hecho de que cada vez
más, y especialmente a un nivel mucho más coloquial, en vez de usar el término
gigabyte se sustituye ese por el vocablo giga.
La realidad
muestra que la utilización binaria difiere del uso decimal. La base binaria es
más habitual en la aplicación del concepto para el diseño de software y hardware. Gigabyte
también se utiliza para medir la capacidad de almacenamiento y de transmisión
de un sistema informático. La capacidad de los discos rígidos (o discos duros),
por ejemplo, se mide en gigabytes (que, en el lenguaje coloquial, se abrevia
como giga).
Por ejemplo: “Necesito un disco duro de más
de 40 gigabytes para mi ordenador”, “Se rompió el disco duro de 54
gigas que tenía en la computadora de mi oficina: necesito un especialista que
recupere los datos”.
No obstante,
hay que dejar patente que no es la única medida de unidades de información que
existe y que se utiliza para moverse y trabajar en lo que sería el entorno
tecnológico y concretamente informático. Así, además del gigabyte también
existen medidas tales como el kilobyte, el megabyte, el terabyte o el peta byte,
entre otras muchas ellas.
No podemos
pasar por alto tampoco el hecho de que el término gigabyte empieza a utilizarse
como tal desde hace mucho tiempo. Sin embargo, no sería hasta el año 1996
cuando los distintos dispositivos de almacenamiento, como sería el caso de los
discos duros o de las tarjetas de tipo SSD (Solid-Estate Drive: unidad de
estado sólido) empiezan a medir su capacidad en dicha medida de información.
Es
importante distinguir entre gigabyte y gigabit. Un gigabit es 1/8 de
un gigabyte, ya que hace referencia a los bits y no a los bytes. El símbolo
de gigabit es Gb o Bit. Por lo general, el
gigabit se usa para nombrar la tasa de transmisión de un flujo de datos o para
describir el ancho de bando.
Gigabyte Tecnología, por otra
parte, es una empresa de Taiwán que se dedica a la fabricación de
hardware. La empresa, fundada en 1986, es famosa por sus tarjetas madre o
motherboards. También se dedica a la producción de monitores, fuentes de poder y tarjetas de vídeo, entre otros componentes.
Asimismo hay
que subrayar que, de igual modo, existe una empresa llamada Gigabyte Sistemas
que se dedica a la venta de una gran variedad de productos tecnológicos tales
como consolas, tabletas, ordenadores de sobremesa o impresoras, entre otros
muchos productos más.
TERABYTE
Un terabyte es una unidad de cantidad de
información cuyo símbolo es el TB,
y equivale a 1012 (un
billón de bytes).1 2
Por otro lado, en la informática se
puede confundir con 240, pero es un error ya que al valor 240 se denomina tebibyte según la normativa IEC 60027-2 y la
IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional.
Confusiones similares existen con el resto de prefijos de múltiplos del S.I.
(Sistema Internacional de Medidas).
Adoptado en 1960, el prefijo Tera viene
del griego que
significa «monstruo» o «bestia».
Un terabyte es una unidad de medida de
almacenamiento de datos cuyo símbolo es TB y puede equivaler a 240 bytes o a
1012 bytes.
Confirmado en 1960, viene del griego τέρας, que significa monstruo.
Debido a irregularidades en la definición y uso del kilobyte, el número exacto de bytes en un terabyte en la práctica, podría ser cualquiera de los siguientes valores:
1. 12000.0001000.000 bytes - 1012, un billón. Esta definición es la que se usa en el contexto general cuando se refiere a almacenamiento en discos, redes u otro hardware.
2. 12099.5111627.776 bytes - 10244 ó 240. Esto es 1024 veces un gigabyte (un gigabyte 'binario'). Esta es la definición más usada en las ciencias de la computación (competer sáciense) y en programación (competer programming) y, la mayor parte del software, emplea también esta definición.[cita requerida]
Un disco duro o partición de un terabyte formateada con NTFS en Windows XP mostrará 931 gigabytes libres.
Confirmado en 1960, viene del griego τέρας, que significa monstruo.
Debido a irregularidades en la definición y uso del kilobyte, el número exacto de bytes en un terabyte en la práctica, podría ser cualquiera de los siguientes valores:
1. 12000.0001000.000 bytes - 1012, un billón. Esta definición es la que se usa en el contexto general cuando se refiere a almacenamiento en discos, redes u otro hardware.
2. 12099.5111627.776 bytes - 10244 ó 240. Esto es 1024 veces un gigabyte (un gigabyte 'binario'). Esta es la definición más usada en las ciencias de la computación (competer sáciense) y en programación (competer programming) y, la mayor parte del software, emplea también esta definición.[cita requerida]
Un disco duro o partición de un terabyte formateada con NTFS en Windows XP mostrará 931 gigabytes libres.
No hay comentarios:
Publicar un comentario