Voz inglesa /bait/, que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte se representa con el símbolo B.
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde seis a nueve bits (un caracter codificado estaría adaptado a esta unidad). La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de los microordenadores o las microcomputadoras basados en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
En arquitectura de ordenadores, 8 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 8 bits de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.
Nota: Excepto para elementos con fotos, los elementos se toman como colecciones de caracteres--letras, números y signos de puntuación--cada uno 1 byte. Un documento formateado utiliza mucha más memoria.
Tamaño Capacidad de almacenamiento aproximada
1 B Una letra
10 B Una o dos palabras
100 B Una o dos frases
1 kB Una historia muy corta
10 kB Una página de enciclopedia (tal vez con un dibujo simple)
100 kB Una fotografía de resolución mediana
1 MB Una novela
10 MB Dos copias de la obra completa de Shakespeare
100 MB 1 metro de libros en estantería
1 GB Una furgoneta lleno de páginas con texto
1 TB 50.000 árboles de papel
10 TB La colección impresa de la biblioteca del congreso de EEUU
La palabra "byte" tiene numerosos significados íntimamente relacionados:
Una secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua.
Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits. Estos bytes convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bites se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10. Los ordenadores del UNIVAC 1100/2200 series (ahora Unisys) direccionaban los campos de datos de 6 bits y en modo ASCII de 9 bits modes con su palabra de 36 bits.
El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8-bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término "byte" viene de "bite" (en inglés "mordisco"), como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con "bit", sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la noción de que era una tupla de n bits y que se permitían otros tamaños.
Es una secuencia contigua de bits binarios en un flujo de datos serie, como en comunicaciones por módem o satélite, o desde un cabezal de disco duro, que es la unidad de datos más pequeña con significado. Estos bytes pueden incluir bits de inicio, parada o paridad y podrían variar de 7 a 12 bits para contener un código ASCII de 7 bits sencillo.
Es un tipo de datos o un sinónimo en ciertos lenguajes de programación. C, por ejemplo, define byte como "unidad de datos de almacenamiento direccionable lo suficientemente grande para albergar cualquier miembro del juego de caracteres básico del entorno de ejecución" (cláusula 3.6 del C estándar). En C el tipo de datos unsigned char tiene que al menos ser capaz de representar 256 valores distintos (cláusula 5.2.4.2.1). La primitiva de Java byte está siempre definida con 8 bits siendo un tipo de datos con signo, tomando valores entre -128 y 127.
Los primeros microprocesadores, como el Intel 8008 (el predecesor directo del 8080 y el Intel 8086) podían realizar un número pequeño de operaciones en 4 bits, como la instrucción DAA (ajuste decimal) y el flag "half carry" que eran utilizados para implementar rutinas de aritmética decimal. Estas cantidades de cuatro bits se llamaron "nibbles" en honor al equivalente de 8 bits "bytes".
Los bytes de 8 bits a menudo se llaman octetos en contextos formales como los estándares industriales, así como en Redes de computadores y Telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Un octeto es también la palabra utilizada para la cantidad de ocho bits en muchos lenguajes no ingleses.
La mitad de un byte de ocho bits se llama nibble o un dígito hexadecimal. El nibble a menudo se llama semiocteto en redes o telecomunicaciones y también por algunas organizaciones de estandarización. Además, una cantidad de 2 bits se llama crumb, aunque raramente se utiliza.
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde seis a nueve bits (un caracter codificado estaría adaptado a esta unidad). La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de los microordenadores o las microcomputadoras basados en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
En arquitectura de ordenadores, 8 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 8 bits de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.
Nota: Excepto para elementos con fotos, los elementos se toman como colecciones de caracteres--letras, números y signos de puntuación--cada uno 1 byte. Un documento formateado utiliza mucha más memoria.
Tamaño Capacidad de almacenamiento aproximada
1 B Una letra
10 B Una o dos palabras
100 B Una o dos frases
1 kB Una historia muy corta
10 kB Una página de enciclopedia (tal vez con un dibujo simple)
100 kB Una fotografía de resolución mediana
1 MB Una novela
10 MB Dos copias de la obra completa de Shakespeare
100 MB 1 metro de libros en estantería
1 GB Una furgoneta lleno de páginas con texto
1 TB 50.000 árboles de papel
10 TB La colección impresa de la biblioteca del congreso de EEUU
La palabra "byte" tiene numerosos significados íntimamente relacionados:
Una secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua.
Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits. Estos bytes convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bites se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10. Los ordenadores del UNIVAC 1100/2200 series (ahora Unisys) direccionaban los campos de datos de 6 bits y en modo ASCII de 9 bits modes con su palabra de 36 bits.
El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8-bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término "byte" viene de "bite" (en inglés "mordisco"), como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con "bit", sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la noción de que era una tupla de n bits y que se permitían otros tamaños.
Es una secuencia contigua de bits binarios en un flujo de datos serie, como en comunicaciones por módem o satélite, o desde un cabezal de disco duro, que es la unidad de datos más pequeña con significado. Estos bytes pueden incluir bits de inicio, parada o paridad y podrían variar de 7 a 12 bits para contener un código ASCII de 7 bits sencillo.
Es un tipo de datos o un sinónimo en ciertos lenguajes de programación. C, por ejemplo, define byte como "unidad de datos de almacenamiento direccionable lo suficientemente grande para albergar cualquier miembro del juego de caracteres básico del entorno de ejecución" (cláusula 3.6 del C estándar). En C el tipo de datos unsigned char tiene que al menos ser capaz de representar 256 valores distintos (cláusula 5.2.4.2.1). La primitiva de Java byte está siempre definida con 8 bits siendo un tipo de datos con signo, tomando valores entre -128 y 127.
Los primeros microprocesadores, como el Intel 8008 (el predecesor directo del 8080 y el Intel 8086) podían realizar un número pequeño de operaciones en 4 bits, como la instrucción DAA (ajuste decimal) y el flag "half carry" que eran utilizados para implementar rutinas de aritmética decimal. Estas cantidades de cuatro bits se llamaron "nibbles" en honor al equivalente de 8 bits "bytes".
Los bytes de 8 bits a menudo se llaman octetos en contextos formales como los estándares industriales, así como en Redes de computadores y Telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Un octeto es también la palabra utilizada para la cantidad de ocho bits en muchos lenguajes no ingleses.
La mitad de un byte de ocho bits se llama nibble o un dígito hexadecimal. El nibble a menudo se llama semiocteto en redes o telecomunicaciones y también por algunas organizaciones de estandarización. Además, una cantidad de 2 bits se llama crumb, aunque raramente se utiliza.
No hay comentarios.:
Publicar un comentario