lunes, 9 de febrero de 2015

Medida de computadora

BIT
Binary digital  es una expresión inglesa que significa “dígito binario” y que da lugar al término bit, su acrónimo en nuestra lengua. El concepto se utiliza en la informática para nombrar a una unidad de medida de información que equivale a la selección entre dos alternativas que tienen el mismo grado de probabilidad.

El bit, en otras palabras, es un dígito que forma parte del sistema binario. A diferencia del sistema decimal, que utiliza diez dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8 y 9), el sistema binario apela a sólo dos (0 y 1). Un bit, por lo tanto, puede representar a uno de estos dos valores (0 ó 1).
Para la informática, el bit es la unidad más pequeña de información. Permite representar dos valores diferentes (como abierto/cerrado o verdadero/falso) y asignar dichos valores al estado de encendido (1) o apagado (0).
Si un bit nos permite representar dos valores (0 y 1), dos bits nos posibilitan codificar cuatro combinaciones: 0 0, 0 1, 1 0 y 1 1. Cada una de estas cuatro combinaciones, por su parte, permite representar cuatro valores diferentes. Palabras, imágenes y números pueden representarse mediante secuencias de bits.
Esto significa que cuando, haciendo referencia a dos dispositivos digitales, se representan con dos valores como es el caso del 0 0 significa que los dos están apagados mientras que si la representación es 0 1 lo que viene a mostrarse es que el primero está apagado y el segundo encendido.
La tercera representación posible es la 1 1 con la que entenderíamos a la perfección que los dos mencionados dispositivos están encendidos. Y finalmente está la 1 0 que significa que el primero, el de la izquierda, está encendido y el segundo apagado.

BYTE
Un byte es una unidad de información formada por una seguidilla de bits adyacentes. El diccionario de la Real Academia Española señala que byte es sinónimo de octeto (una unidad de información de ocho bits); sin embargo, el tamaño del byte (que proviene del inglés bite, “mordisco”) depende del código de caracteres en el que ha sido definido.

Es importante subrayar el hecho de que no existe una norma que haya establecido de manera oficial el símbolo que le corresponde al byte. Hasta el momento nos encontramos que se identifica de dos maneras fundamentalmente. Así, en los países de habla francesa se representa mediante una “o” mientras que en los anglosajones corresponde a la “B”.
El término fue propuesto por Werner Buchholz hace más de cinco décadas, en medio del desarrollo de la computadora IBA 7030 Stretch. En un principio, byte se utilizaba para mencionar las instrucciones que constaban de 4 bits y que permitían la inclusión de entre 1 y 16 bits por byte. Sin embargo, el trabajo de diseño luego achicó el byte a campos de tres bits, lo que permitió entre 1 y 8 bits en un byte. Con el tiempo, se fijó el tamaño de un byte en 8 bits y se declaró como un estándar a partir de IBM S/360.
La noción de 8 bits permite describir, en la arquitectura de los ordenadores o computadoras, las direcciones de memoria y otras unidades de datos que pueden abarcar hasta 8 bits de ancho. El concepto también permite hacer mención a la arquitectura de CPU y ALU que está basada en registros del mismo ancho.
Se conoce como nuble, por otra parte, a la mitad de 1 byte de ocho bits. Así como el byte suele ser nombrado como octeto, por el mismo motivo el noble puede mencionarse como semiocteto.
El byte tiene diversos múltiplos, como kilobyte (1.000 bytes), megabyte (1.000.000 bytes), gigabyte (1.000.000.000 bytes) y terabyte (1.000.000.000.000 bytes), entre otros.
Fundamental es el papel que ejerce el byte y el resto de equivalencias citadas dentro del ámbito de la informática pues se utilizan como medidas para referirse a la capacidad que tienen diversos dispositivos tales como, por ejemplo, lo que es la Memoria RAM, un cd, un DVD o un pen drive.
Así, por ejemplo, sabemos que de manera habitual un cd suele tener una capacidad de almacenamiento de unos 700 Megabytes, un DVD suele superar el Gigabyte y los pen, por su parte, presentan actualmente una diversidad enorme de capacidad. De esta manera en el mercado informático nos encontramos con dispositivos de este tipo que tienen una capacidad de 4 gigabytes, de 8 gigabytes o de 16 gigabytes, entre otras.
Una tendencia esta última que también es propia de las llamadas tarjetas de memoria o de los discos duros portátiles que actualmente cuentan con una gran variedad en cuanto a esa propiedad de almacenamiento. Así, por precios bastantes económicos e interesantes, en grandes almacenes dedicados al mundo de los ordenadores pueden llegar a encontrarse discos duros de los citados que llegan incluso a alcanzar 1 Terabyte.


MAGABYTE

Megabyte. También conocido como mega octeto se refiere a una medida de cantidad en la informática, pertenece a los múltiplos del byte. La palabra megabyte tiene su significado y proviene del prefijo mega que significa grande. Se ve representada por las siglas MB y no Mb porque esto significaría megabit. También a los megabytes se le conocen mundial-mente por megas.

Esta unidad es precedida por el Gigabyte, usándose para especificar la capacidad de algunos dispositivos como memoria RAM, memorias de tarjeta gráficas, de los CD-ROM, o el tamaño de algunos softwares y archivos.

GIGABYTE
El término gigabyte no forma parte del diccionario de la Real Academia Española (RAE) pero es muy usual en la informática. Se trata de una unidad de medida que se simboliza como GB y que puede tener distintas equivalencias de acuerdo a su uso.

En concreto podemos establecer que el gigabyte equivale a 10 elevado a 9 byte. Además de ello es interesante dejar patente que es un término que tiene su origen etimológico en el griego. Y es que el primer vocablo que le da forma emana de la palabra griega guigas que puede traducirse como “gigante”.
Además de todo lo expuesto también merece la pena dejar patente el hecho de que cada vez más, y especialmente a un nivel mucho más coloquial, en vez de usar el término gigabyte se sustituye ese por el vocablo giga.
La realidad muestra que la utilización binaria difiere del uso decimal. La base binaria es más habitual en la aplicación del concepto para el diseño de software y hardware. Gigabyte también se utiliza para medir la capacidad de almacenamiento y de transmisión de un sistema informático. La capacidad de los discos rígidos (o discos duros), por ejemplo, se mide en gigabytes (que, en el lenguaje coloquial, se abrevia como giga).
Por ejemplo: “Necesito un disco duro de más de 40 gigabytes para mi ordenador”, “Se rompió el disco duro de 54 gigas que tenía en la computadora de mi oficina: necesito un especialista que recupere los datos”.
No obstante, hay que dejar patente que no es la única medida de unidades de información que existe y que se utiliza para moverse y trabajar en lo que sería el entorno tecnológico y concretamente informático. Así, además del gigabyte también existen medidas tales como el kilobyte, el megabyte, el terabyte o el peta byte, entre otras muchas ellas.
No podemos pasar por alto tampoco el hecho de que el término gigabyte empieza a utilizarse como tal desde hace mucho tiempo. Sin embargo, no sería hasta el año 1996 cuando los distintos dispositivos de almacenamiento, como sería el caso de los discos duros o de las tarjetas de tipo SSD (Solid-Estate Drive: unidad de estado sólido) empiezan a medir su capacidad en dicha medida de información.
Es importante distinguir entre gigabyte y gigabit. Un gigabit es 1/8 de un gigabyte, ya que hace referencia a los bits y no a los bytes. El símbolo de gigabit es Gb o Bit. Por lo general, el gigabit se usa para nombrar la tasa de transmisión de un flujo de datos o para describir el ancho de bando.
Gigabyte Tecnología, por otra parte, es una empresa de Taiwán que se dedica a la fabricación de hardware. La empresa, fundada en 1986, es famosa por sus tarjetas madre o motherboards. También se dedica a la producción de monitores, fuentes de poder y tarjetas de vídeo, entre otros componentes.
Asimismo hay que subrayar que, de igual modo, existe una empresa llamada Gigabyte Sistemas que se dedica a la venta de una gran variedad de productos tecnológicos tales como consolas, tabletas, ordenadores de sobremesa o impresoras, entre otros muchos productos más.


TERABYTE
Un terabyte es una unidad de cantidad de información cuyo símbolo es el TB, y equivale a 1012 (un billón de bytes).1 2
Por otro lado, en la informática se puede confundir con 240, pero es un error ya que al valor 240 se denomina tebibyte según la normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. Confusiones similares existen con el resto de prefijos de múltiplos del S.I. (Sistema Internacional de Medidas).
Adoptado en 1960, el prefijo Tera viene del griego  que significa «monstruo» o «bestia».
Un terabyte es una unidad de medida de almacenamiento de datos cuyo símbolo es TB y puede equivaler a 240 bytes o a 1012 bytes. 

Confirmado en 1960, viene del griego τέρας, que significa monstruo. 

Debido a irregularidades en la definición y uso del kilobyte, el número exacto de bytes en un terabyte en la práctica, podría ser cualquiera de los siguientes valores: 

1. 12000.0001000.000 bytes - 1012, un billón. Esta definición es la que se usa en el contexto general cuando se refiere a almacenamiento en discos, redes u otro hardware. 
2. 12099.5111627.776 bytes - 10244 ó 240. Esto es 1024 veces un gigabyte (un gigabyte 'binario'). Esta es la definición más usada en las ciencias de la computación (competer sáciense) y en programación (competer programming) y, la mayor parte del software, emplea también esta definición.[cita requerida] 

Un disco duro o partición de un terabyte formateada con NTFS en Windows XP mostrará 931 gigabytes libres.


No hay comentarios:

Publicar un comentario