lunes, 19 de septiembre de 2011

Historia de la informática.

1.  El dispositivo de calculo más antiguo que se conoce es el ábaco. Su nombre viene del griego abaks que significa superficie plana. Se sabe que los griegos empleaban tablas para contar en el siglo V antes de Cristo o tal vez ántes. El ábaco tal como lo conocemos actualmente esta constituido por una serie de hilos con cuentas ensartadas en ellos.

2.  Blaise Pascal El primer calculador mecánico apareció en 1642. El artífice de esta máquina fue el filósofo francés Blaise Pascal (1.623-1.662), en cuyo honor, se llama Pascal uno de los lenguajes de programación que más impacto ha causado en los últimos años. Pascalina (sumadora mecánica):

3. Leibnitz Leibnitz (1646-1716) fue uno de los genios de su época; a los 26 años aprendió matemáticas de modo autodidacta y procedió a inventar el cálculo. En 1673 Inventó una máquina de calcular por la simple razón de que nadie le enseñó las tablas de multiplicar.

4. Charles Babbage Aunque hubo muchos precursores de los actuales sistemas informáticos para muchos especialistas la historia empieza con Charles Babbage, matemático e inventor inglés. Babbage decidió construir una máquina de propósito general que pudiese resolver casi cualquier problema matemático. Hubo varios modelos, pero todos mecánicos, movidos por vapor. La sofisticada organización de esta máquina, la máquina diferencial, según se la llamó en 1847, es lo que hace que muchos consideren a Babbage padre de la informática actual.

Computadora u ordenador.

La computadora u ordenador, no es un invento de alguien en particular, sino el resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programaciónJusto antes de morir, el matemático escocés John Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "Napier Bones"1623

Blue-Ray o BD

Es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para vídeo de gran definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento llega a 25 GB por capa, aunque Sony y Panasonic han desarrollado un nuevo índice de evaluación (i-MLSE) que permitiría ampliar un 33% la cantidad de datos almacenados,1 desde 25 a 33,4 GB por capa.2 3 Aunque otros apuntan que el sucesor del DVD no será un disco óptico, sino la tarjeta de memoria. No obstante, se está trabajando en el HVD o Disco holográfico versátil con 3,9 TB. El límite de capacidad en las tarjetas de formato SD/MMC está ya en 128 GB, teniendo la ventaja de ser regrabables al menos durante 5 años.

¿Que son los datos e información?

DATOS:
Los datos son símbolos que describen condiciones, hechos, situaciones o valores. Los datos se caracterizan por no contener ninguna información. Un dato puede significar un número, una letra, un signo ortográfico o cualquier símbolo que represente una cantidad, una medida, una palabra o una descripción.
 La importancia de los datos está en su capacidad de asociarse dentro de un contexto para convertirse en información. Por si mismos los datos no tienen capacidad de comunicar un significado y por tanto no pueden afectar el comportamiento de quien los recibe. Para ser útiles, los datos deben convertirse en, información para ofrecer un significado, conocimiento ideas o conclusiones.

INFORMACIÓN:
La información no es un dato conjunto cualquiera de ellos. Es más bien una colección de hechos significativos y pertinentes, para el organismo u organización que los percibe. La definición de información es la siguiente: Información es un conjunto de datos significativos y pertinentes que describan sucesos o entidades.

DATOS SIGNIFICATIVOS. Para ser significativos, los datos deben constar de símbolos reconocibles, estar completos y expresar una idea no ambigua.
 Los símbolos de los datos son reconocibles cuando pueden ser correctamente interpretados. Muchos tipos diferentes de símbolos comprensibles se usan para transmitir datos.
 La integridad significa que todos los datos requeridos para responder a una pregunta específica están disponibles. Por ejemplo, un marcador de béisbol debe incluir el tanteo de ambos equipos.


Diferencia entre Datos e información:
1. Los Datos a diferencia de la información son utilizados como diversos métodos para comprimir la información a fin de permitir una transmisión o almacenamiento más eficaces.
2. Aunque para el procesador de la computadora hace una distinción vital entre la información entre los programas y los datos, la memoria y muchas otras partes de la computadora no lo hace. Ambos son registradas temporalmente según la instrucción que se le de. Es como un pedazo de papel no sabe ni le importa lo que se le escriba: un poema de amor, las cuentas del banco o instrucciones para un amigo. Es lo mismo que la memoria de la computadora. Sólo el procesador reconoce la diferencia entre datos e información de cualquier programa. Para la memoria de la computadora, y también para los dispositivos de entrada y salida (E/S) y almacenamiento en disco, un programa es solamente más datos, más información que debe ser almacenada, movida o manipulada.

Historia de una computadora.

La primera máquina de calcular mecánica, un precursor de la computadora digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

La máquina analítica:

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de una computadora moderna. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Primeras computadoras:

Las computadoras analógicas comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Computadoras electrónicas:

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró la primera computadora digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en la ‘computadora’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba la computadora de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse a la computadora.


Circuitos integrados :

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio

Unidades para medir información y sus converciones.

En informática, la cantidad de información más pequeña es el bit, que puede tomar los valores de 0 y 1.
 Un byte está compuesto de 8 bits: 1B = 8 bits

Entonces ya que los datos están compuestos de bits, que pueden tomar dos valores, las unidades del sistema de medida en informática están en base 2, y no 10 como con otras unidades de uso común.

Reglas de conversión


Norma de ANTES de 1988 (en la actualidad obsoleta y errónea)

Antes de 1988, la norma era:
2^10 bits =                             1 024 bits; ya que 2^10 es cercano a 10^3,  2^10 bits = 1 Kb = 1 kilobit
2^20 bits =                         1 048 576 bits; ya que 2^20 es cercano a 10^6,  2^20 bits = 1 Mb = 1 Megabit
2^30 bits =                     1 073 741 824 bits; ya que 2^30 es cercano a 10^9,  2^30 bits = 1 Gb = 1 Gigabit
2^40 bits =                 1 099 511 627 776 bits; ya que 2^40 es cercano a 10^12, 2^40 bits = 1 Tb = 1 Terabit
2^50 bits =             1 125 899 906 842 624 bits; ya que 2^50 es cercano a 10^15, 2^50 bits = 1 Pb = 1 Petabit
2^60 bits =         1 152 921 504 606 846 976 bits; ya que 2^60 es cercano a 10^18, 2^60 bits = 1 Eb = 1 Exabit
2^70 bits =     1 180 591 620 717 411 303 424 bits; ya que 2^70 es cercano a 10^21, 2^70 bits = 1 Zb = 1 Zettabit
2^80 bits = 1 208 925 819 614 629 174 706 176 bits; ya que 2^80 es cercano a 10^24, 2^80 bits = 1 Yb = 1 Yottabit


Desde 1998, existen unidades especialmente orientadas a base 2 y no a base 10, destinadas al campo de la informática.
 Es una norma que ratifica la BIPM, el IEEE y la NIST, tres grandes organismos de referencia en materia de estandarización.

La norma actual es:
2^10 bits =                             1 024 bits = 1 Kib = 1 kibibit
2^20 bits =                         1 048 576 bits = 1 Mib = 1 Mebibit
2^30 bits =                     1 073 741 824 bits = 1 Gib = 1 Gibibit
2^40 bits =                 1 099 511 627 776 bits = 1 Tib = 1 Tebibit
2^50 bits =             1 125 899 906 842 624 bits = 1 Pib = 1 Pebibit
2^60 bits =         1 152 921 504 606 846 976 bits = 1 Eib = 1 Exbibit
2^70 bits =     1 180 591 620 717 411 303 424 bits = 1 Zib = 1 Zebibit
El sufijo "bi" (binario) indica que la unidad está en base 2.
1 Kib = 1 Kilobinary bit, etc.



Sin embargo, la mayoría de personas, incluyendo los profesionales, utilizan por error la norma anterior a 1998. Los fabricantes de soporte de almacenamiento por lo general utilizan la norma correcta, lo que les permite aumentar artificialmente la capacidad de sus productos