lunes, 24 de octubre de 2011

Tema 2:Bit,Byte,ASCII,


Un Bit (Binary digit)

Dígito del sistema de numeración binario y se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó1. Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados: apagada o encendida
El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).

El sistema binario:
 Sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y1). Los ordenadores trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario
(encendido1, apagado0).

Historia del sistema binario:
Pingala presentó la primera descripción que se conoce de un sistema de numeración binario en el siglo III a.C. Series similares han sido utilizados en sistemas de adivinación tradicionales africanos, como el Ifá, así como en la geomancia medieval occidental.
En 1605 Francis Bacon habló de un sistema por el cual las letras del alfabeto podrían reducirse a secuencias de dígitos binarios, las cuales podrían ser codificadas como variaciones apenas visibles en la fuente de cualquier texto arbitrario.
El sistema binario moderno fue documentado en su totalidad por Leibniz, en el siglo XVII en su artículo "Explication de l'Arithmétique Binaire
En 1854, el matemático británico George Boole publicó un artículo que marcó un antes y un después, detallando un sistema de lógica que terminaría denominándose Álgebra de Boole ( también para circuitos electrónicos).

Aplicaciones:
En 1937, Claude Shannon realizó su tesis doctoral en el MIT, en la cual implementaba el Álgebra de Boole y  aritmética binaria utilizando relés y conmutadores por primera vez en la historia. Titulada Un Análisis Simbólico de Circuitos Conmutadores y Relés, la tesis de Shannon básicamente fundó el diseño práctico de circuitos digitales.
En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los Laboratorios Bell, construyó una computadora basada en relés—a la cual apodó "Modelo K" (porque la construyó en una cocina, en inglés
"kitchen")— que utilizaba la suma binaria para realizar los cálculos. Los Laboratorios Bell autorizaron un completo
programa de investigación a finales de 1938, con Stibitz al mando. El 8 de enero de 1940 terminaron el diseño de
una
un teletipo. Fue la primera máquina computadora utilizada de manera remota a través de la línea de teléfono.
Algunos participantes de la conferencia que presenciaron la demostración fueron John Von Neumann, John Mauchly
y Norbert Wiener, quien escribió acerca de dicho suceso en sus diferentes tipos de memorias en la cual alcanzó diferentes logros

Representación:
Un número binario puede ser representado por cualquier secuencia de bits (dígitos binarios), que suelen representar cualquier mecanismo capaz de estar en dos estados mutuamente excluyentes.

CON LOS NUMEROS BINARIOS SE PUEDEN REALIZAR OPERACIONES MATEMÁTICAS



BYTE

Palabra inglesa que si bien la Real Academia Española ha aceptado como equivalente a octeto, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad.

Escala:
En arquitectura de ordenadores, 8 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 8 bits de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.

Historia:
Acuñado por Waner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits. Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El cambio byte también se conocía como "un byte de 8 bits.
1. Es una secuencia contigua de bits binarios en un flujo de datos serie, como en comunicaciones por módem o satélite
2. Es un tipo de datos o un sinónimo en ciertos lenguajes de programación. Eran utilizados para implementar rutinas de aritmética decimal.

ASCII

El código ASCII (Código Estadounidense Estándar para el Intercambio de Información), es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares como una refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit adicional que se usaba para detectar errores en la transmisión. A menudo se llama incorrectamente ASCII a otros códigos de caracteres de 8 bits.
ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría son caracteres de control obsoletos que tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio). Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible para representar textos.

Variantes de ASCII:
A medida que la tecnología informática se difundió a lo largo del mundo, se desarrollaron diferentes estándares y las empresas desarrollaron muchas variaciones del código ASCII para facilitar la escritura de lenguas diferentes al inglés que usaran alfabetos latinos.
La ISO 646 (1972),creó problemas de compatibilidad, pues también era un código de caracteres de 7 bits. No especificó códigos adicionales, así que reasignó algunos específicamente para los nuevos lenguajes. De esta forma se volvió imposible saber en qué variante se encontraba codificado el texto, y, consecuentemente, los procesadores de texto podían tratar una sola variante.
La tecnología mejoró y aportó medios para representar la información codificada en el octavo bit de cada byte, liberando este bit. Los estándares de ocho bits como ISO 8859 y Mac OS Roman fueron desarrollados como verdaderas extensiones de ASCII, dejando los primeros 127 caracteres intactos y añadiendo únicamente valores adicionales por encima de los 7-bits. Esto permitió la representación de un abanico mayor de lenguajes, pero estos estándares continuaron

Arte ASCII:
El código de caracteres ASCII es el soporte de una disciplina artística minoritaria, el arte ASCII, que consiste en la composición imágenes mediante caracteres imprimibles ASCII. El efecto resultante ha sido comparado con el puntillismo. El arte ASCII empezó siendo un arte experimental, pero pronto se popularizó. Se puede conformar tanto manual como automáticamente.

No hay comentarios:

Publicar un comentario