viernes, 15 de junio de 2012

CREADORES DE LA COMPUTADORA



PERSONAJES QUE INTERVINIERON EN LA CREACION Y EVOLUCION DE LOS COMPUTADORES



600 a.C. - El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo.
500 a.C. - Los romanos usaron ábacos con piedras pequeñas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).

1633 - El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.


1642 - El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La Pascalina hacía sumas y restas.

La Pascalina funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla.
1671 - El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora.

1833 - El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792 -1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.
Babbage usaba cartones perforados para suministrarle datos a su máquina -había copiado la idea del telar del francés Joseph Marie Jacquard, inventado en 1801-, que se convertirían en instrucciones memorizadas; algo así como los primeros programas. Esperaba lograr imprimir la información registrada, obtener resultados y volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después.
La evaluación y la retroalimentación se convertirían en la base de la cibernética, que nacería un siglo más tarde.
1847 - El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó "El análisis matemático del pensamiento" y en 1854 "Las leyes del pensamiento".
Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todas las computadoras.

1890 - Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo más tarde revolucionó el mercado con las computadoras personales o PC.

1889 - Solo a fines del siglo XIX se inventó una máquina calculadora que incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división) y que lentamente se empezó a producir de manera más masiva. Esta máquina solo podía realizar una operación a la vez y no tenía memoria.
1893 - Entre 1893 y 1920, Leonardo Torres y Quevedo creó en España varias máquinas capaces de resolver operaciones algebraicas. Posteriormente construyó la primera máquina capaz de jugar ajedrez.
1920 - Se presentó en París el "aritmómetro electromecánico", que consistía en una calculadora conectada a una máquina de escribir, en la que se tecleaban los números y las operaciones. Una vez realizado el cálculo, la máquina entregaba automáticamente el resultado. Este aparato fue la primera versión de una calculadora digital.
1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería la primera computadora.
La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo.
 
1937 - Claude Shannon demostró que la programación de las futuras computadoras era más un problema de lógica que de aritmética, reconociendo la importancia del álgebra de Boole.
Además, sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería fundamental para la construcción de la primera computadora.
Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría matemática de la comunicación, hoy más conocida como la "teoría de la información", estableciendo los conceptos de negentropía, que se refiere a que la información reduce el desorden, y la unidad de medida del bit -en dígitos binarios- utilizada actualmente tanto en las telecomunicaciones como en la informática.
1939 - En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática que utilizaba interruptores ordinarios de sistemas de conmutación telefónica.
Nacen los ordenadores

En 1941, Konrad Suze presentó la Z3, la primera computadora electromagnética programable mediante una cinta perforada.
Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y consumía cuatro mil watts.
Una adición demoraba 0,7 segundos, mientras que en una multiplicación o división tardaba 3 segundos.

1943 - Un equipo de expertos del ejército británico dirigido por Alan Turing construyó a Colossus, una computadora que permitía descifrar en pocos segundos y automáticamente los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la máquina Enigma.

1944 - En 1939, Howard Aiken (1900-1973), graduado de física de la Universidad de Harvard, logró un convenio entre dicha universidad e IBM, por el que un grupo de graduados inició el diseño y la construcción de la primera computadora americana, del tipo electromecánico -basado en electroimanes-.
El Mark I comenzó a funcionar en 1944. Recibía y entregaba información en cintas perforadas, se demoraba un segundo en realizar diez operaciones. Medía 18 metros de longitud y 2,5 metros de alto.
Posteriormente se construyeron Mark II y Mark III.

1947 - Pese a que Harvard e IBM construyeron la primera computadora, la tecnología era más avanzada en otras universidades.
Los ingenieros John Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, desarrollaron para el ejército estadounidense, en el laboratorio de investigaciones balísticas de Aberdeen, el ENIAC (Electronic Numerical Integrator And Calculator).
Tenía treinta metros de largo, tres de alto, uno de ancho, pesaba treinta toneladas y tenía 800 kilómetros de cableado. Consumía la misma electricidad que mil lavadoras juntas y realizaba cien mil operaciones por segundo. Era capaz de calcular con gran velocidad las trayectorias de proyectiles, que era el objetivo inicial de su construcción.
ENIAC es considerada la primera computadora, ya que su funcionamiento era completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias, condensadores, etc.). Sin embargo, el calor de estas elevaba la temperatura local hasta los 50 grados, por lo que para efectuar diferentes operaciones debían cambiarse las conexiones, lo cual podía tomar varios días.

1949 - El matemático húngaro John Von Neumann resolvió el problema de tener que cablear la máquina para cada tarea.
La solución fue poner las instrucciones en la misma memoria que los datos, escribiéndolas de la misma forma, en código binario.
Refiriéndose a esta innovación, se habla de la "arquitectura de Von Neumann". Su EDVAC fue el modelo de las computadoras de este tipo.

1951 - La primera computadora comercial fue la UNIVAC 1, fabricada por la Sperry-Rand Corporation y comprada por la Oficina del Censo de Estados Unidos.
Disponía de mil palabras de memoria central y podía leer cintas magnéticas.
Por su parte, la IBM desarrolló la IBM 701, de la que se entregaron dieciocho unidades entre 1953 y 1957. La compañía Remington Rand fabricó el modelo 1103, que competía con la 701. Así, lentamente, fueron apareciendo nuevos modelos.

1955 - En Bell Labs se inició la construcción de computadoras sin válvulas, las que fueron reemplazadas por transistores. Esto permitió achicar en decenas de veces el tamaño de estas máquinas y aumentar su velocidad de operación. Además la refrigeración, debido al alza de la temperatura, ya no era necesaria.
Los transistores habían sido inventados en 1947 por los científicos de esta misma compañía: Bardeen, Brattain y Shockley. Se trataba de un semiconductor de tamaño reducido capaz de realizar funciones de bloqueo o amplificación de señal. Eran más pequeños, más baratos y mucho menos calientes que las válvulas de vacío.

1957 - Un equipo de IBM, dirigido por John Backus, creó el primer lenguaje de programación, llamado Fortran, formulado para el IBM 704.
60’s - Técnicos de varios laboratorios, a partir de la elaboración de los transistores, comenzaron a producir unidades más grandes con múltiples componentes que cumplían diversas funciones electrónicas.
Se trataba de los circuitos integrados o chips.
Estos permitieron una nueva disminución en el tamaño y el costo.

1969 - Kenneth Thompson y Dennis Ritchie, de Bell Labs, desarrollaron el sistema operativo Unix.

1971 - La compañía Intel lanzó el primer microprocesador, el Intel 4004, un pequeño chip de silicio.
Se trató de un circuito integrado especialmente construido para efectuar las operaciones básicas de Babbage y conforme a la arquitectura de Von Neumann.
Fue la primera Unidad Central de Procesos (CPU). La integración de estos procesos avanzó en distintas etapas:
Integración simple (Integrated Circuits o IC)
Alta integración (Large Scale Integration o LSI)
Muy alta integración (Very Large Scale Integration o VLSI)
Estos procesos permitieron acelerar el funcionamiento de las computadoras, logrando superar el millón de operaciones por segundo.

1971 - Alan Shugart, de IBM, inventó el disco flexible o floppy disk, un disquete de 5 1/4 pulgadas.

1974 - Surge el Altair 8800, la primera computadora de escritorio, comercializada con el microprocesador Intel 8080.
Aunque no incluía teclado, monitor, ni software de aplicación, esta máquina dio inicio a una revolución en los sistemas computacionales modernos.

1975 - Steve Jobs -que trabajaba en Atari- y Steven Wozniak -ingeniero de Hewlett Packard- se juntaron para armar una microcomputadora que pudiera ser usada más masivamente.
Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y desarrolló el lenguaje de programación Basic.
El resultado fue la primera computadora Apple.
Steve Jobs y Steven Wozniak, crearon la primera computadora Apple.

A fines de 1976 tenían el modelo listo para ser comercializado: el Apple II. Tras varios intentos, finalmente consiguieron el apoyo de Mike Markulla, con quien formaron su propia compañía, la Apple Computers. El Apple II siguió fabricándose por otros quince años, todo un récord para una industria que continuamente presenta novedades.

1975 Bill Gates y Paul Allen se unen para crear Microsoft, una empresa dedicad"a íntegramente al "software


A parte. Os adjunto cuatro grandes hackers que he visto en Quands.cat y que han aportado mucho a este mundillo:
- Fred Cohen. Considerado el inventor de los mecanismos de defensa contra los virus informáticos.
- Dennis Ritchie. Uno de los padres del lenguaje C y del sistema operativo UNIX junto con Ken Thompson.
- Jon Postel. El padre de la RFC's. Ojalá hubiésemos hecho caso de sus predicciones. Jon predijo cosas como que el SPAM sería un futuro problema: RFC-706 - On the Junk Mail Problem.
- Grace Hopper. Fue la mujer que inventó el concepto de compilación, inventora del COBOL y fue la primera que bautizó un fallo informático con la palabra BUG (bicho) al encontrarse una mosca dentro de un ordenador haciendo que éste funcionase mal. La mosca pasó a la historia en el momento que la enganchó en un libro de registro de actividad del ordenador y con la inscripción: 'First actual case of bug being found' (primer caso real de localizar un bug). Es por eso que el proceso de depuración de los problemas en los programas es conocido como 'debugging' y los fallos como 'bugs'.

En 1834 Charles Babbage diseñó una máquina de calcular automática que nunca fue construida. La idea se dejó abandonada durante años hasta principios del siglo XX cuando se comenzó a considerar la posibilidad de crear máquinas que sirvieran para muchos propósitos además de sumar, restar y multiplicar.

Alan Turing fue el primero en ver realmente las posibilidades de crear una máquina que pudiera hacer varias cosas, haciendo realidad el sueño que tuvo Leibnitz años atrás. Alan Turing comenzó a pensar en como se podría reducir un algoritmo a la mínima expresión. Como se podría crear una máquina muy simple que resolviera algoritmos de forma mecánica.

Turing
Alan Turing, el padre de la informática.
Turing propuso en 1936 un modelo matemático de computadora de propósito general. Esta computadora se constituiría de una cinta en la que se puede codificar un símbolo en cada posición. La máquina tiene una cabeza lectora y la cinta se puede mover hacia adelante y hacia atrás. En cada momento la máquina puede analizar un símbolo, y dependiendo del estado actual de la máquina y del símbolo leído sustituirá el símbolo leído por uno nuevo. A continuación podrá leer un nuevo símbolo moviendo la cinta. Lo importante de este modelo de Turing es su potencia para realizar demostraciones, no la posibilidad de construir esta máquina ya que sería muy lenta.
Charles Babbage
 FRS Teignmouth, Devonshire, Gran Bretaña, 26 de diciembre de 1791 - 18 de octubre de 1871) fue un matemático británico y científico de la computación. Diseñó y parcialmente implementó una máquina para calcular, de diferencias mecánicas para calcular tablas de números. También diseñó, pero nunca construyó, la máquina analítica para ejecutar programas de tabulación o computación; por estos inventos se le considera como una de las primeras personas en concebir la idea de lo que hoy llamaríamos una computadora, por lo que se le considera como "El Padre de la Computación". En el Museo de Ciencias de Londres se exhiben partes de sus mecanismos inconclusos. Parte de su cerebro conservado en formol se exhibe en "The Royal College of Surgeons of England", sito en Londres.
Diseño de computadoras
Babbage intentó encontrar un método por el cual se pudieran hacer cálculos automáticamente por una máquina, eliminando errores debidos a la fatiga o aburrimiento que sufrían las personas encargadas de compilar las tablas matemáticas de la época. Esta idea la tuvo en 1812. Tres diversos factores parecían haberlo motivado: una aberración al desorden, su conocimiento de tablas logarítmicas, y los trabajos de máquinas calculadoras realizadas por Blaise Pascal y Gottfried Leibniz. En 1822, en una carta dirigida a Sir Humphry Davy en la aplicación de maquinaria al cálculo e impresión de tablas matemáticas, discutió los principios de una máquina calculadora. Además diseñó un plano de computadoras.


No hay comentarios:

Publicar un comentario