PERSONAJES
QUE INTERVINIERON EN LA CREACION Y EVOLUCION DE LOS COMPUTADORES
600 a.C.
- El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad
estática. De sus escritos proviene la palabra electrón, que se usa para
designar a las partículas negativas del átomo.
500 a.C. - Los romanos usaron ábacos con piedras pequeñas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).
500 a.C. - Los romanos usaron ábacos con piedras pequeñas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).
1633 - El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.
1642 - El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La Pascalina hacía sumas y restas.
La Pascalina funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla.
1671 - El
filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina
multiplicadora.
1833 - El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792 -1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.
1833 - El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792 -1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.
Babbage
usaba cartones perforados para suministrarle datos a su máquina -había copiado
la idea del telar del francés Joseph
Marie Jacquard, inventado en 1801-, que se convertirían en instrucciones
memorizadas; algo así como los primeros programas. Esperaba lograr imprimir la
información registrada, obtener resultados y volver a ingresarlos para que la
máquina los evaluara y dedujera qué se debía hacer después.
La evaluación y la retroalimentación se convertirían en la base de la cibernética, que nacería un siglo más tarde.
La evaluación y la retroalimentación se convertirían en la base de la cibernética, que nacería un siglo más tarde.
1847 - El
británico George Boole desarrolló un
nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica
simbólica. En 1847 publicó "El análisis matemático del pensamiento" y
en 1854 "Las leyes del pensamiento".
Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todas las computadoras.
Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todas las computadoras.
1890 - Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo más tarde revolucionó el mercado con las computadoras personales o PC.
1889 - Solo a fines del siglo XIX se inventó una máquina calculadora que incorporó las cuatro operaciones básicas (suma, resta, multiplicación y división) y que lentamente se empezó a producir de manera más masiva. Esta máquina solo podía realizar una operación a la vez y no tenía memoria.
1893 -
Entre 1893 y 1920, Leonardo Torres y
Quevedo creó en España varias máquinas capaces de resolver operaciones
algebraicas. Posteriormente construyó la primera máquina capaz de jugar
ajedrez.
1920 - Se
presentó en París el "aritmómetro electromecánico", que consistía en
una calculadora conectada a una máquina de escribir, en la que se tecleaban los
números y las operaciones. Una vez realizado el cálculo, la máquina entregaba
automáticamente el resultado. Este aparato fue la primera versión de una
calculadora digital.
1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería la primera computadora.
La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo.
1934-1939 - Konrad Suze construyó en Alemania dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería la primera computadora.
La Z1 tenía un teclado y algunas lámparas que indicaban valores binarios. La Z2 fue una versión mejorada que utilizaba electromagnetismo.
1937 - Claude Shannon demostró que la programación de las futuras computadoras era más un problema de lógica que de aritmética, reconociendo la importancia del álgebra de Boole.
Además,
sugirió que podían usarse sistemas de conmutación como en las centrales
telefónicas, idea que sería fundamental para la construcción de la primera
computadora.
Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría matemática de la comunicación, hoy más conocida como la "teoría de la información", estableciendo los conceptos de negentropía, que se refiere a que la información reduce el desorden, y la unidad de medida del bit -en dígitos binarios- utilizada actualmente tanto en las telecomunicaciones como en la informática.
1939 - En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática que utilizaba interruptores ordinarios de sistemas de conmutación telefónica.
Más adelante, junto con Warren Weaver, Shannon desarrolló la teoría matemática de la comunicación, hoy más conocida como la "teoría de la información", estableciendo los conceptos de negentropía, que se refiere a que la información reduce el desorden, y la unidad de medida del bit -en dígitos binarios- utilizada actualmente tanto en las telecomunicaciones como en la informática.
1939 - En Estados Unidos, George Stibitz y S.B. Williams, de los laboratorios Bell, construyeron una calculadora de secuencia automática que utilizaba interruptores ordinarios de sistemas de conmutación telefónica.
Nacen los
ordenadores
En 1941, Konrad Suze presentó la Z3, la primera computadora electromagnética programable mediante una cinta perforada.
Tenía dos
mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil kilos y
consumía cuatro mil watts.
Una
adición demoraba 0,7 segundos, mientras que en una multiplicación o división
tardaba 3 segundos.
1943 - Un equipo de expertos del ejército británico dirigido por Alan Turing construyó a Colossus, una computadora que permitía descifrar en pocos segundos y automáticamente los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la máquina Enigma.
1944 - En 1939, Howard Aiken (1900-1973), graduado de física de la Universidad de Harvard, logró un convenio entre dicha universidad e IBM, por el que un grupo de graduados inició el diseño y la construcción de la primera computadora americana, del tipo electromecánico -basado en electroimanes-.
El Mark I
comenzó a funcionar en 1944. Recibía y entregaba información en cintas
perforadas, se demoraba un segundo en realizar diez operaciones. Medía 18
metros de longitud y 2,5 metros de alto.
Posteriormente
se construyeron Mark II y Mark III.
1947 - Pese a que Harvard e IBM construyeron la primera computadora, la tecnología era más avanzada en otras universidades.
Los
ingenieros John Presper Eckert y John W. Mauchly, de la Universidad de
Pennsylvania, desarrollaron para el ejército estadounidense, en el laboratorio
de investigaciones balísticas de Aberdeen, el ENIAC (Electronic Numerical
Integrator And Calculator).
Tenía
treinta metros de largo, tres de alto, uno de ancho, pesaba treinta toneladas y
tenía 800 kilómetros de cableado. Consumía la misma electricidad que mil
lavadoras juntas y realizaba cien mil operaciones por segundo. Era capaz de
calcular con gran velocidad las trayectorias de proyectiles, que era el
objetivo inicial de su construcción.
ENIAC es considerada la primera computadora, ya que su funcionamiento era completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias, condensadores, etc.). Sin embargo, el calor de estas elevaba la temperatura local hasta los 50 grados, por lo que para efectuar diferentes operaciones debían cambiarse las conexiones, lo cual podía tomar varios días.
ENIAC es considerada la primera computadora, ya que su funcionamiento era completamente electrónico, tenía 17.468 válvulas o tubos (más resistencias, condensadores, etc.). Sin embargo, el calor de estas elevaba la temperatura local hasta los 50 grados, por lo que para efectuar diferentes operaciones debían cambiarse las conexiones, lo cual podía tomar varios días.
1949 - El matemático húngaro John Von Neumann resolvió el problema de tener que cablear la máquina para cada tarea.
La
solución fue poner las instrucciones en la misma memoria que los datos,
escribiéndolas de la misma forma, en código binario.
Refiriéndose
a esta innovación, se habla de la "arquitectura de Von Neumann". Su
EDVAC fue el modelo de las computadoras de este tipo.
1951 - La primera computadora comercial fue la UNIVAC 1, fabricada por la Sperry-Rand Corporation y comprada por la Oficina del Censo de Estados Unidos.
Disponía de mil palabras de memoria central y podía leer cintas magnéticas.
Por su parte, la IBM desarrolló la IBM 701, de la que se entregaron dieciocho unidades entre 1953 y 1957. La compañía Remington Rand fabricó el modelo 1103, que competía con la 701. Así, lentamente, fueron apareciendo nuevos modelos.
1955 - En Bell Labs se inició la construcción de computadoras sin válvulas, las que fueron reemplazadas por transistores. Esto permitió achicar en decenas de veces el tamaño de estas máquinas y aumentar su velocidad de operación. Además la refrigeración, debido al alza de la temperatura, ya no era necesaria.
Los transistores habían sido inventados en 1947 por los científicos de esta misma compañía: Bardeen, Brattain y Shockley. Se trataba de un semiconductor de tamaño reducido capaz de realizar funciones de bloqueo o amplificación de señal. Eran más pequeños, más baratos y mucho menos calientes que las válvulas de vacío.
1957 - Un equipo de IBM, dirigido por John Backus, creó el primer lenguaje de programación, llamado Fortran, formulado para el IBM 704.
60’s -
Técnicos de varios laboratorios, a partir de la elaboración de los
transistores, comenzaron a producir unidades más grandes con múltiples
componentes que cumplían diversas funciones electrónicas.
Se
trataba de los circuitos integrados o chips.
Estos
permitieron una nueva disminución en el tamaño y el costo.
1969 - Kenneth Thompson y Dennis Ritchie, de Bell Labs, desarrollaron el sistema operativo Unix.
1971 - La compañía Intel lanzó el primer microprocesador, el Intel 4004, un pequeño chip de silicio.
Se trató
de un circuito integrado especialmente construido para efectuar las operaciones
básicas de Babbage y conforme a la arquitectura de Von Neumann.
Fue la primera Unidad Central de Procesos (CPU). La integración de estos procesos avanzó en distintas etapas:
Fue la primera Unidad Central de Procesos (CPU). La integración de estos procesos avanzó en distintas etapas:
Integración
simple (Integrated Circuits o IC)
Alta
integración (Large Scale Integration o LSI)
Muy alta
integración (Very Large Scale Integration o VLSI)
Estos
procesos permitieron acelerar el funcionamiento de las computadoras, logrando
superar el millón de operaciones por segundo.
1971 - Alan Shugart, de IBM, inventó el disco flexible o floppy disk, un disquete de 5 1/4 pulgadas.
1974 - Surge el Altair 8800, la primera computadora de escritorio, comercializada con el microprocesador Intel 8080.
Aunque no
incluía teclado, monitor, ni software de aplicación, esta máquina dio inicio a
una revolución en los sistemas computacionales modernos.
1975 - Steve Jobs -que trabajaba en Atari- y Steven Wozniak -ingeniero de Hewlett Packard- se juntaron para armar una microcomputadora que pudiera ser usada más masivamente.
Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y desarrolló el lenguaje de programación Basic.
El
resultado fue la primera computadora Apple.
Steve
Jobs y Steven Wozniak, crearon la primera computadora Apple.
A fines de 1976 tenían el modelo listo para ser comercializado: el Apple II. Tras varios intentos, finalmente consiguieron el apoyo de Mike Markulla, con quien formaron su propia compañía, la Apple Computers. El Apple II siguió fabricándose por otros quince años, todo un récord para una industria que continuamente presenta novedades.
1975 Bill Gates y Paul Allen se unen para crear Microsoft, una empresa dedicad"a íntegramente al "software
A
parte. Os adjunto cuatro grandes hackers que he visto en Quands.cat y que han
aportado mucho a este mundillo:
- Fred Cohen.
Considerado el inventor de los mecanismos de defensa contra los virus
informáticos.
- Dennis
Ritchie. Uno de los padres del lenguaje C y del sistema
operativo UNIX junto con Ken Thompson.
- Jon Postel.
El padre de la RFC's. Ojalá hubiésemos hecho caso de sus predicciones. Jon
predijo cosas como que el SPAM sería un futuro problema: RFC-706 - On
the Junk Mail Problem.
- Grace Hopper.
Fue la mujer que inventó el concepto de compilación, inventora del COBOL y fue
la primera que bautizó un fallo informático con la palabra BUG (bicho) al
encontrarse una mosca dentro de un ordenador haciendo que éste funcionase mal.
La mosca pasó a la historia en el momento que la enganchó en un libro de
registro de actividad del ordenador y con la inscripción: 'First actual case of
bug being found' (primer caso real de localizar un bug). Es por eso que el
proceso de depuración de los problemas en los programas es conocido como
'debugging' y los fallos como 'bugs'.
En 1834 Charles Babbage
diseñó una máquina de calcular automática que nunca fue construida. La idea se
dejó abandonada durante años hasta principios del siglo XX cuando se comenzó a
considerar la posibilidad de crear máquinas que sirvieran para muchos
propósitos además de sumar, restar y multiplicar.
Alan Turing fue el primero en ver realmente las posibilidades de crear una máquina que pudiera hacer varias cosas, haciendo realidad el sueño que tuvo Leibnitz años atrás. Alan Turing comenzó a pensar en como se podría reducir un algoritmo a la mínima expresión. Como se podría crear una máquina muy simple que resolviera algoritmos de forma mecánica.
Alan Turing fue el primero en ver realmente las posibilidades de crear una máquina que pudiera hacer varias cosas, haciendo realidad el sueño que tuvo Leibnitz años atrás. Alan Turing comenzó a pensar en como se podría reducir un algoritmo a la mínima expresión. Como se podría crear una máquina muy simple que resolviera algoritmos de forma mecánica.
Turing
Alan Turing, el padre de la informática.
Turing propuso en 1936 un
modelo matemático de computadora de propósito general. Esta computadora se
constituiría de una cinta en la que se puede codificar un símbolo en cada
posición. La máquina tiene una cabeza lectora y la cinta se puede mover hacia
adelante y hacia atrás. En cada momento la máquina puede analizar un símbolo, y
dependiendo del estado actual de la máquina y del símbolo leído sustituirá el
símbolo leído por uno nuevo. A continuación podrá leer un nuevo símbolo
moviendo la cinta. Lo importante de este modelo de Turing es su potencia para
realizar demostraciones, no la posibilidad de construir esta máquina ya que
sería muy lenta.
Charles Babbage
FRS
Teignmouth,
Devonshire,
Gran Bretaña,
26 de
diciembre de 1791
- 18 de octubre
de 1871)
fue un matemático
británico
y científico de la computación. Diseñó y
parcialmente implementó una máquina para calcular, de diferencias
mecánicas para calcular tablas de números. También diseñó, pero nunca
construyó, la máquina analítica para ejecutar programas de tabulación
o computación;
por estos inventos se le considera como una de las primeras personas en
concebir la idea de lo que hoy llamaríamos una computadora,
por lo que se le considera como "El Padre de la Computación". En el Museo de Ciencias de Londres se exhiben
partes de sus mecanismos inconclusos. Parte de su cerebro conservado en formol se
exhibe en "The Royal College of Surgeons of England", sito en Londres.
Diseño de computadoras
Babbage intentó encontrar un método por el cual se
pudieran hacer cálculos automáticamente por una máquina, eliminando errores
debidos a la fatiga o aburrimiento que sufrían las personas encargadas de
compilar las tablas matemáticas de la época. Esta idea la tuvo en 1812. Tres diversos
factores parecían haberlo motivado: una aberración al desorden, su conocimiento
de tablas logarítmicas, y los trabajos de máquinas calculadoras realizadas por Blaise Pascal
y Gottfried Leibniz. En 1822, en una carta
dirigida a Sir Humphry Davy en la aplicación de maquinaria al
cálculo e impresión de tablas matemáticas, discutió los principios de una
máquina calculadora.
Además diseñó un plano de computadoras.
No hay comentarios:
Publicar un comentario