lunes, 9 de noviembre de 2009

Cuarta Generación (1971 - 1983)

Microprocesador.

El microprocesador es un circuito integrado que contiene algunos o todos los elementos hardware, y el de CPU, que es un concepto lógico. Una CPU puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias CPU. Un núcleo suele referirse a una porción del procesador que realiza todas las actividades de una CPU real.

La tendencia de los últimos años ha sido la de integrar más núcleos dentro de un mismo empaque, además de componentes como memorias Cache y controladores de memoria, elementos que antes estaban montados sobre la placa base como dispositivos individuales.

Funcionamiento.

Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto básicamente por: varios registros, una Unidad de control, una Unidad aritmético-lógica, y dependiendo del procesador, puede contener una unidad en coma flotante.

El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:

PreFetch, Pre lectura de la instrucción desde la memoria principal,

Fetch, envío de la instrucción al decodificador,

Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer,

Lectura de operandos (si los hay),

Ejecución, (Lanzamiento de las Máquinas de estado que llevan a cabo el procesamiento).

Escritura de los resultados en la memoria principal o en los registros.

Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de MHz.

Rendimiento El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la Frecuencia de relojera una medida precisa, pero ese mito ("mito de los megahertz") se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su poder de cómputo.

Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1.5 a 4 [[]], dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún.

Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chip de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas.

La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas características puede tenerse una medida aproximada del rendimiento de un procesador por medio de indicadores como la cantidad de operaciones de punto flotante por unidad de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples factores involucrados en la computación de un problema, por lo general las pruebas no son concluyentes entre sistemas de la misma generación.

El proceso de fabricación de un microprocesador es muy complejo. Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un monocristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1370°C) y muy lentamente (10 a 40 Mm por hora) se va formando el cristal.

De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de menos de un milímetro de espesor (una capa de unas 10 micras de espesor, la décima parte del espesor de un cabello humano), utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores.

Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo para remover cualquier defecto o impureza que pueda haber llegado a esta instancia. Luego de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micrón, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor.

De aquí en adelante, comienza el proceso del “dibujado” de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de remover las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se llega a un complejo "bocadillo" que contiene todos los circuitos interconectados del microprocesador.

Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las mascaras utilizadas durante la fabricación.

Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico de aire (0,028 metros cúbicos). Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.

Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso.

La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea. Luego la oblea es cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora.

Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Cada una de estas conexiones se realiza utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es dotada de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como el que equipa nuestro ordenador.

Microcomputadora.

Una microcomputadora es una computadora que tiene un microprocesador(unidad central de procesamiento).

Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.

Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el términocomputadora personal se aplica a las microcomputadora orientados a los consumidores. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes.

Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo.. Sus principales características son:

Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.

Usuario a la vez: Uno (Por eso se llaman Personales).

Su uso mas comun es para propositos personales.

Tamaño: Pequeña, o portátiles.

Facilidad de uso: Supuestamente fáciles de usar.

Clientes usuales: Pequeñas empresas, oficinas, escuelas,

Penetración social: Mediana.

Impacto social: Alto, en los países industrializados.

Parque instalado: Cientos de millones en el mundo.

Costo: Pocos cientos de dólares estadounidenses.

Peso: 10 Kg aproximadamente (computadoras de escritorio)

Supercomputadora.

Supercomputadora o Superordenador es un ordenador con capacidades muy superiores a las computadoras comúnmente disponibles al público general de la época en que fue construida.

Normalmente se utilizan en trabajos especializados que requieren un gran desempeño. Eso incluye medicina, ciencia, ingeniería avanzada, entre otros. Como ejemplo se encuentra la supercomputadoraRoadrunner; Ingenieros de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología del ordenador. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de superordenadores de IBM. En cierta forma, se trata de una versión superior de Sony PlayStation 3, indicó. "Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad", informó Turek.

Sin embargo, el superordenador Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 de espacio. Cuenta con 91,7 km de fibra óptica y pesa 226,8 t . El Superordenador está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Alamos, en Nuevo México.

Características.

Las principales son:

Velocidad de Proceso: miles de millones de instrucciones de coma flotante por segundo

Usuarios a la vez: hasta miles, en entorno de redes amplias

Tamaño: requieren instalaciones especiales y aire acondicionado industrial

Dificultad de uso: solo para especialistas

Clientes usuales: grandes centros de investigación

Penetración social: prácticamente nula.

Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Pi, desarrollar cálculos de problemas físicos dejando un margen de error muy bajo, etc.

Parques instalados: menos de un millar en todo el mundo

Costo: hasta decenas de millones de dólares cada una de ellas.

Tercera generación (1965-1974)

La tercera generación de las computadoras se puede decir que comienza en abril de 1.964 con la IBM 360. Estas computadoras están compuestas por circuitos integrados y utilizan lenguajes de control de los sistemas operativos.

Circuito integrado

El Circuito integrado, o chip se invento en el año 1.959 por los ingenieros de la Texas Instruments. Ellos serán los sustitutos de los transistores en la fabricación de las computadoras. El primer circuito integrado contenía seis transistores. Actualmente un chip o circuito integrado puede llegar a tener millones de transistores.

El sistema operativo que usaba la IBM en el modelo 360 lo llamo OS, tenia varias configuraciones, con el que se podía manejar la memoria y el uso del procesador, ya usaba la tecnología de los circuitos integrados, que luego se convirtieron en estándares. Todas estas computadoras se caracterizaban por ser muy potentes y veloces.

Minicomputadoras.


A mediados de la década de los 70 las computadoras que se venden en los mercados recuden su tamaño, se las denomina minicomputadoras. Estas son mas económicas que las grandes, pero son muy ágiles en el tratamiento de la información. Algunas de estas minicomputadoras o mainframes (que significa, gran sistema) fueron: la PDP – 8, la PDP – 11, la VAX de la Virtual Address eXtended, todas estas de la empresa Digital Equipment Corporation, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett – Packard, etc. En la antigua Unión Soviética se uso durante varias generaciones la US (Sistema Unificado, Ryad).

Esto es lo que ocurrió en (1964-1971) que comprende de la Tercera generación de computadoras:

Menor consumo de energía

Apreciable reducción del espacio

Aumento de fiabilidad

Teleproceso

Multiprogramación

Renovación de periféricos

Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11

Se calculó π (Número Pi) con 500.000 decimales

Segunda Generación (1958 a 1965)

Transistores.

El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas, y con menores necesidades de ventilación. Sin embargo, el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.

Las computadoras de la Segunda Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones de uso general. Las empresas comenzaron a aplicar las computadoras en las tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.

Las características de la segunda generación son las siguientes:

Están construidas con circuitos de transistores.

Se programan en nuevos lenguajes, llamados lenguajes de alto nivel.


LA PRIMERA COMPUTADORA BASADA EN TRANSISTORES

La primera computadora basada puramente en transistores fue la TX-0 (Transitorized eXperimental computer 0), en el MIT. Fue un dispositivo usado para probar la TX-2. Uno de los ingenieros que trabajaron en este laboratorio, Kenneth Olsen, abandonó el laboratorio para formar la compañía DEC (Digital Equipment Company).

VARIOS INVENTOS

En 1956, IBM introduce el primer disco duro. En el mismo año, se diseña la primera computadora comercial UNIVAC puramente basada en transistores.

Los programas de computadoras también mejoraron. En 1957, John Backus y sus colegas en IBM produjeron el primer compilador FORTRAN (Formula Translator).

El COBOL, desarrollado durante la primera generación, estaba ya disponible comercialmente.

Los programas escritos para una computadora podían transferirse a otra con un esfuerzo mínimo.

Escribir un programa ya no requería entender plenamente el hardware de la computadora.

La marina de EE.UU. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo (Whirlwind I).

HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras.

Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s, fueron conocidos como el grupo BUNCH.

En 1961, Fernando Corbató en el MIT desarrolla una forma para que múltiples usuarios puedan compartir el tiempo del procesador. También se patenta el primer robot industrial.

En 1962, Steve Russell del MIT crea el Spacewar (el primer videojuego).

En 1962 fue desarrollado por Ivan Sutherland en MIT el primer programa gráfico que dejaba que el usuario dibujara interactivamente en una pantalla. El programa, llamado "Sketchpad," usó una pistola de luz para la entrada de gráficos en una pantalla CRT.

En 1963, el sistema de defensa SAGE es puesto en marcha, gracias al cual se pudieron lograr muchos avances en la industria de la computadora.

En 1964, Douglas Engelbart inventa el mouse, y John Kemeny y Thomas Kurz desarrollan el lenguaje BASIC (Beginner's All-purpose Symbolic Instruction Code).

LA PDP-1

En 1960, DEC introduce su primera computadora: la PDP-1. Esta computadora fue diseñada tomando como base la TX-0, y tenía 4K palabras de 18 bits. Costaba 120.000$, y tenía un tiempo de ciclo del procesador de aproximadamente 5 microsegundos (en comparación con la IBM 7090 que era una máquina de alto desempeño en la cual un ciclo del procesador era de 2.5 microsegundos y su costo era de millones de dólares). Fue la primer máquina con monitor y teclado, marcando el comienzo de las minicomputadoras.

LA COMPUTADORA IBM 360.



En 1964 aparece el primer modelo de la computadora IBM 360. IBM había construido una versión con transistores de la 709, llamada 7090, y posteriormente la 7094. Tenía un ciclo de instrucción de 2 microsegundos, y 32K palabras de 36 bits. Estas computadoras dominaron la computación científica en los 60s.

IBM también vendía una computadora orientada a los negocios, llamada 1401. Podía leer cintas magnéticas, leer y perforar tarjetas, e imprimir. No tenía registros ni palabras de longitud fija. Tenía 4 Kbytes de 8 bits cada uno. Cada byte contenía un caracter de 6 bits, un bit administrativo, y un bit para indicar un fin de palabra. La instrucción de movimiento de memoria a memoria movía los datos de la fuente al destino, hasta que encontraba prendido el bit de fin de palabra.

El problema era la incompatibilidad de ambas computadoras: era imposible compartir el software, y de hecho era necesario tener dos centros de cómputos separados con personal especializado.

La IBM System/360 fue una computadora diseñada con múltiples propósitos. Era una familia de computadoras con el mismo lenguaje de máquina, pero mayor potencia. El software escrito en cualquiera de los modelos ejecutaba directamente en los otros (el único problema era que, al portar un programa de una versión poderosa a una versión anterior, el programa podía no caber en memoria). Todas las IBM 360 proveían soporte para multiprogramación. También existían emuladores de otras computadoras, para poder ejecutar versiones de ejecutables de otras máquinas sin ser modificados. Tenía un espacio de direcciones de 16 megabytes.

LA PRIMERA SUPERCOMPUTADORA COMERCIAL

En este año se pone en operaciones la computadora CDC 6600 de la Control Data Corporation, fundada y diseñada por Seymour Cray. Esta computadora ejecutaba a una velocidad de 9 Mflops (es decir, un orden de magnitud más que la IBM 7094), y es la primera supercomputadora comercial. El secreto de su velocidad es que era una computadora altamente paralela. Tenía varias unidades funcionales haciendo sumas, otras haciendo multiplicaciones, y otra haciendo divisiones, todas ejecutando en paralelo (podía haber hasta 10 instrucciones ejecutándose a la vez).

Las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibió el nombre de programación de sistemas.

Primera generación (1946 - 1958)

Monografias.com

La primera generación de computadoras abarca desde el año 1946 hasta el año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina.

Introducción.

Las máquinas eran así:

Estaban construidas con electrónica de válvulas

Se programaban en lenguaje de máquina

Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios).

La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:

1947 ENIAC. Primera computadora digital electrónica de la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 bulbos consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en los Estados Unidos.

1949 EDVAC. Primera computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.

1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos.

1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas.

1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el disco magnético.

El Tubo de Vació.


La era de la computación moderna empezó con una ráfaga de desarrollo antes y durante la Segunda Guerra Mundial, como circuitos electrónicos, relés, condensadores y tubos de vacío que reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos analógicos.

Las computadoras que se diseñaron y construyeron entonces se denominan a veces "primera generación" de computadoras. La primera generación de computadoras eran usualmente construidas a mano usando circuitos que contenían relés y tubos de vacío, y a menudo usaron tarjetas perforadas (punched cards) o cinta de papel perforado (punched paper tape) para la entrada de datos [input] y como medio de almacenamiento principal (no volátil). El almacenamiento temporal fue proporcionado por las líneas de retraso acústicas (que usa la propagación de tiempo de sonido en un medio tal como alambre para almacenar datos) o por los tubos de William (que usan la habilidad de un tubo de televisión para guardar y recuperar datos).

A lo largo de 1953, la memoria de núcleo magnético estaba desplazando rápidamente a la mayoría de las otras formas de almacenamiento temporal, y dominó en este campo a mediados de los 1970s.

En 1936 Konrad Zuse empezó la construcción de la primera serie Z, calculadoras que ofrecen memoria (inicialmente limitada) y programabilidad. Las Zuses puramente mecánicas, pero ya binarias, la Z1 terminada en 1938 nunca funcionó fiablemente debido a los problemas con la precisión de partes.

En 1937, Claude Shannon hizo su tesis de master en MIT que implementó álgebra booleana usando relés electrónicos e interruptores por primera vez en la historia. Titulada "Un Análisis Simbólico de Circuitos de Relés e Interruptores" (A Symbolic Analysis of Relay and Switching Circuits), la tesis de Shannon, esencialmente, fundó el diseño de circuitos digitales prácticos.

La máquina subsecuente de Zuse, la Z3, fue terminada en 1941. Estaba basada en relés de teléfono y trabajó satisfactoriamente. Así la Z3 fue la primera computadora funcional controlada mediante programas. En muchas de sus características era bastante similar a las máquinas modernas, abriendo numerosos avances, tales como el uso de la aritmética binaria y números de coma flotante. El duro trabajo de reemplazar el sistema decimal (utilizado en el primer diseño de Charles Babbage) por el sistema binario, más simple, significó que las máquinas de Zuse fuesen más fáciles de construir y potencialmente más fiables, dadas las tecnologías disponibles en ese momento.

Esto es a veces visto como la principal razón por la que Zuse tuvo éxito donde Babbage falló; sin embargo, la mayoría de las máquinas de propósito general de ahora continúan teniendo instrucciones de ajustes decimales, la aritmética decimal es aun esencial para aplicaciones comerciales y financieras, y el hardware de coma flotante decimal está siendo agregado en algunas nuevas máquinas (el sistema binario continua siendo usado para direccionamiento en casi todas las máquinas).

Se hicieron programas para la Z3 en películas perforadas [punched films]. Los saltos condicionales eran extraños, pero desde los 1990s los puristas teóricos decían que la Z3 era aún una computadora universal (ignorando sus limitaciones de tamaño de almacenamiento físicas). En dos patentes de 1937, Konrad Zuse también anticipó que las instrucciones de máquina podían ser almacenadas en el mismo tipo de almacenamiento utilizado por los datos - la clave de la visión que fue conocida como la arquitectura de von Neumann y fue la primera implementada en el diseño Británico EDSAC (1949) más tarde.

Zuse también diseño el primer lenguaje de programación de alto nivel "Plankalkül" en 1945, aunque nunca se publicó formalmente hasta 1971, y fue implementado la primera vez en el 2000 por la Universidad de Berlín, cinco años después de la muerte de Zuse.

Zuse sufrió retrocesos dramáticos y perdió muchos años durante la Segunda Guerra Mundial cuando los bombarderos británicos o estadounidenses destruyeron sus primeras máquinas. Al parecer su trabajo permaneció largamente desconocido para los ingenieros del Reino Unido y de los Estados Unidos hasta mucho más tarde, aunque por lo menos IBM era consciente de esto y financió su compañía a inicios de la post-guerra en 1946, para obtener derechos sobre las patentes de Zuse.

En 1940, fue completada la Calculadora de Número Complejo, una calculadora para aritmética compleja basada en relés. Fue la primera máquina que siempre se usó remotamente encima de una línea telefónica. En 1938, John Vincent Atanasoff y Clifford E. Berry de la Universidad del Estado de Iowa desarrollaron la Atanasoff Berry Computer (ABC) una computadora de propósito especial para resolver sistemas de ecuaciones lineales, y que emplearon capacitores montados mecánicamente en un tambor rotatorio para memoria. La máquinaABC no era programable, aunque se considera una computadora en el sentido moderno en varios otros aspectos.

Durante la Segunda Guerra Mundial, los británicos hicieron esfuerzos significativos en Bletchley Park para descifrar las comunicaciones militares alemanas. El sistema cypher alemán (Enigma), fue atacado con la ayuda con las finalidad de construir bombas (diseñadas después de las bombas electromecánicas programables) que ayudaron a encontrar posibles llaves Enigmas después de otras técnicas tenían estrechadas bajo las posibilidades. Los alemanes también desarrollaron una serie de sistemas cypher (llamadas Fish cyphers por los británicos y Lorenz cypers por los alemanes) que eran bastante diferentes del Enigma. Como parte de un ataque contra estos, el profesor Max Newman y sus colegas (incluyendo Alan Turing) construyeron el Colossus. El Mk I Colossus fue construido en un plazo muy breve por Tommy Flowers en la Post Office Research Station en Dollis Hill en Londres y enviada a Bletchley Park.

El Colossus fue el primer dispositivo de cómputo totalmente electrónico. El Colossus usó solo tubos de vacío y no tenía relees. Tenía entrada para cinta de papel [paper-tape] y fue capaz de hacer bifurcaciones condicionales. Se construyeron nueve Mk II Colossi (la Mk I se convirtió a una Mk II haciendo diez máquinas en total). Los detalles de su existencia, diseño, y uso se mantuvieron en secreto hasta los años 1970. Se dice que Winston Churchill había emitido personalmente una orden para su destrucción en pedazos no más grandes que la mano de un hombre. Debido a este secreto el Colossi no se ha incluido en muchas historias de la computación. Una copia reconstruida de una de las máquinas Colossus esta ahora expuesta en Bletchley Park.

El trabajo de preguerra de Turing ejerció una gran influencia en la ciencia de la computación teórica, y después de la guerra, diseñó, construyó y programó algunas de las primeras computadoras en el Laboratorio Nacional de Física y en la Universidad de Manchester. Su trabajo de 1936 incluyó una reformulación de los resultados de Kurt Gödel en 1931 así como una descripción de la que ahora es conocida como la máquina de Turing, un dispositivo puramente teórico para formalizar la noción de la ejecución de algoritmos, reemplaza al lenguaje universal, más embarazoso, de Gödel basado en aritmética. Las computadoras modernas son Turing-integrada (capacidad de ejecución de algoritmo equivalente a una máquina Turing universal), salvo su memoria finita. Este limitado tipo de Turing-integrados es a veces visto como una capacidad umbral separando las computadoras de propósito general de sus predecesores de propósito especial.

George Stibitz y sus colegas en Bell Labs de la ciudad de Nueva York produjeron algunas computadoras basadas en relee a finales de los años 1930 y a principios de los años 1940, pero se preocuparon más de los problemas de control del sistema de teléfono, no en computación. Sus esfuerzos, sin embargo, fueron un claro antecedente para otra máquina electromecánica americana.

La Harvard Mark I (oficialmente llamada Automatic Sequence Controlled Calculator) fue una computadora electro-mecánica de propósito general construida con financiación IBM y con asistencia de algún personal de IBM bajo la dirección del matemático Howard Aiken de Harvard. Su diseño fue influenciado por la Máquina Analítica. Fue una máquina decimal que utilizó ruedas de almacenamiento e interruptores rotatorios además de los relees electromagnéticos.

Se programaba mediante cinta de papel perforado, y contenía varias calculadoras trabajando en paralelo. Más adelante los modelos contedrían varios lectores de cintas de papel y la máquina podía cambiar entre lectores basados en una condición. No obstante, esto no hace mucho la máquina Turing-integrada. El desarrollo empezó en 1939 en los laboratorio de Endicott de IBM; la Mark I se llevó a la Universidad de Harvard para comenzar a funcionar en mayo de 1944.

ENIAC.

La construcción estadounidense ENIAC (Electronic Numerical Integrator and Computer), a menudo llamada la primera computadora electrónica de propósito general, públicamente validó el uso de elementos electrónicos para computación a larga escala. Esto fue crucial para el desarrollo de la computación moderna, inicialmente debido a la ventaja de su gran velocidad, pero últimamente debido al potencial para la miniaturización.

Construida bajo la dirección de John Mauchly y J. Presper Eckert, era mil veces más rápida que sus contemporáneas. El desarrollo y construcción de la ENIAC comenzó en 1941 siendo compleamente operativa hacia finales de 1945. Cuando su diseño fue propuesto, muchos investigadores creyeron que las miles de válvulas delicadas (tubos de vacio) se quemarían a menudo, lo que implicaría que la ENIAC estuviese muy frecuentemente en reparación. Era, sin embargo, capaz de hacer más de 100.000 cálculos simples por segundo y eso durante unas horas que era el tiempo entre fallos de las válvulas.

Para programar la ENIAC, sin embargo, se debía realambrar por lo que algunos dicen que eso ni siquiera se puede calificar como programación, pues cualquier tipo de reconstrucción de una computadora se debería considerar como programación. Varios años después, sin embargo, fue posible ejecutar programas almacenados en la memoria de la tabla de función.

A todas las máquinas de esta época les faltó lo que se conocería como la arquitectura de Eckert-Mauchly: sus programas no se guardaron en el mismo "espacio" de memoria como los datos y así los programas no pudieron ser manipulados como datos.

La primera máquinas Eckert-Mauchly fue la Manchester Baby o Small-Scale Experimental Machine, construida en la Universidad de Manchester en 1948; esta fue seguida en 1949 por la computadora Manchester Mark I que funcionó como un sistema completo utilizando el tubo de William para memoria, y también introdujo registros de índices. El otro contendiente para el título "primera computadora de programa almacenado digital" fue EDSAC, diseñada y construida en la Universidad de Cambridge.


Estuvo operativa menos de un año después de la Manchester "Baby" y era capaz de resolver problemas reales. La EDSAC fue realmente inspirada por los planes para la EDVAC, el sucesor de la ENIAC; estos planes ya estaban en lugar por el tiempo la ENIAC fue exitosamente operacional. A diferencia la ENIAC, que utilizo procesamiento paralelo, la EDVAC usó una sola unidad de procesamiento. Este diseño era más simple y fue el primero en ser implementado en cada onda teniendo éxito de miniaturización, e incrementó la fiabilidad. Algunos ven la Manchester Mark I/EDSAC/EDVAC como las "Evas" de que casi todas las computadoras actuales que derivan de su arquitectura.

La primera computadora programable en la Europa continental fue creada por un equipo de científicos bajo la dirección de Segrey Alekseevich Lebedev del Institute of Electrotechnology en Kiev, Unión Soviética (ahora Ucrania). La computadora MESM (Small Electronic Calculating Machine (МЭСМ)) fue operacional en 1950. Tenía aproximadamente 6.000 tubos de vacío y consumía 25 kW. Podía realizar aproximadamente 3.000 operaciones por segundo.

La máquina de la Universidad de Manchester se convirtió en el prototipo para la Ferranti Mark I. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y por lo menos otras nueve se vendieron entre 1951 y 1957.

UNIVAC.

En junio de 1951, la UNIVAC I [Universal Automatic Computer] se entregó a la Oficina del Censo estadounidense. Aunque fabricada por laRemington Rand, la máquina era erróneamente llamada la "IBM UNIVAC". La Remington Ran eventualmente vendió 46 máquinas a más de $1 millón cada una. La UNIVAC fue la primera computadora "producida en masa"; todas las predecesoras habían sido "una fuera de" las unidades. Usaba 5.200 tubos de vacío y consumía 125 kW de poder. Utilizó una línea de retraso de mercurio capaz de almacenar 1.000 palabras de 11 dígitos decimales más la señal (72-bit de palabras) para memoria. En contraste con las primeras máquinas no usó un sistema de tarjetas perforadas, sino una entrada de cinta de metal.

También en 1921 (julio), la Remington Rand demostró el primer prototipo de los 409, una calculadora de tarjeta perforada de tarjeta enchufada programada. Esta fue la primera instalada, en la Revenue Service facility en Baltimore, en 1952. La 409 evolucionó para volverse la computadora Univac 60 y 120 en 1953.

LEO.

En noviembre de 1951, la compañía J. Lyons and Co. (relacionada con la industria de los alimentos) desarrolló la primera computadora de Inglaterra la LEO (Lyons Electronic Office), esta también fue la primer computadora en resolver problemas de negocios. La computadora contenía una aplicación que resolvía el problema de la producción y entrega de pasteles a las tiendas de la misma compañía.

El Ábaco

Archivo:Boulier1.JPG

Un ábaco es un objeto que sirve para facilitar cálculos sencillos (sumas, restas y multiplicaciones) y operaciones aritméticas. Normalmente, consiste en cierto número de cuentas engarzadas en varillas, cada una de las cuales indica una cifra del número que se representa. Este elemento sirve mucho a los niños para aprender las operaciones básicas por lo que es muy usado en niveles básicos. También es un cuadro de madera con alambres paralelos. El término "ábaco" es una palabra existente en varios idiomas, con diversos posibles orígenes etimológicos discutidos. En latín se empleaban los términos abacus y el plural respectivo, abaci. En la lengua griega griego se usaba abax o abakon, que significan "superficie plana" o "tabla". Otro probable origen es la palabra semítica Abaq que significa "polvo". En la lengua Tamazigt (berber) aun hoy en algunos dialectos abaq significa semilla.

Las semillas, junto a pequeñas varillas y los guijarros o piedras, denominadas "calculi" en latín y que se empleaban para calcular en el ábaco, fueron los primeros elementos empleados para realizar el cómputo en la Historia de la Humanidad.

En otros idiomas se consiguen equivalentes de la palabra ábaco. Por ejemplo, en chino es Suan Pan, en japonés es Soroban, en coreano Tschu Pan, en vietnamita Ban Tuan o Ban Tien, en ruso Schoty, en turco Coulba y en armenio Choreb.

Definición.

Es un instrumento de cálculo que utiliza cuentas que se deslizan a lo largo de una serie de alambres o barras de metal o madera fijadas a un marco para representar las unidades, decenas, centenas, unidades de millar, decenas de millar, centenas de millar, etcétera. Fue inventado en Asia menor, y es considerado el precursor de la calculadora digital moderna. Utilizado por mercaderes en la Edad Media a través de toda Europa y el mundo árabe, fue reemplazado en forma gradual por la aritmética basada en los números indo-árabes. Aunque poco usado en Europa después del siglo XVIII, todavía se emplea en Medio Oriente, Rusia, China, Japón y Corea.

Origen.

Archivo:RomanAbacusRecon.jpg

El ábaco es considerado como el más antiguo instrumento de cálculo, adaptado y apreciado en diversas culturas. La época de origen del ábaco es indeterminada. En épocas muy tempranas, el hombre primitivo encontró materiales para idear instrumentos de conteo. Es probable que su inicio fuera en una superficie plana y piedras que se movían sobre líneas dibujadas con polvo. Hoy en día se tiende a pensar que el origen del ábaco se encuentra en China, donde el uso de este instrumento aún es notable al igual que en Japón. Otras opiniones sostienen que el ábaco nació en el Sahara, donde los antecesores del actual ábaco eran dameros rayados en la arena o en las rocas, usados tanto para realizar cálculos aritméticos como para jugar a diversos juegos tradicionales de inteligencia, que en el Sahara y en las Islas Canarias son muy abundantes.

Como gran parte de la aritmética inicialmente se realizaba con el ábaco, este término ha pasado a ser sinónimo de aritmética. Dicha denominación se encuentra en el texto Liber Abaci del matemático italiano Leonardo de Pisa Fibbonacci publicado en dos ediciones de 1202 y 1228, que trata del uso de los números indo-arábigos. La copia que ha visto la luz en la actualidad, corresponde a la edición de 1228.

Muchas culturas han usado el ábaco o el tablero de conteo, aunque en las culturas europeas desapareció al disponerse de otros métodos para hacer cálculos, hasta tal punto que fue imposible encontrar rastro de su técnica de uso.

Las evidencias del uso del ábaco surgen en comentarios de los antiguos escritores griegos. Por ejemplo,Demóstenes (384-322 a. C.) escribió acerca de la necesidad del uso de piedras para realizar cálculos difíciles de efectuar mentalmente. Otro ejemplo son los métodos de cálculo encontrados en los comentarios de Heródoto (484-425 a. C.), que hablando de los egipcios decía: "Los egipcios mueven su mano de derecha a izquierda en los cálculos, mientras los griegos lo hacen de izquierda a derecha".

Algunas de las evidencias físicas de la existencia del ábaco se encontraron en épocas antiguas de losgriegos en las excavaciones arqueológicas. En 1851 se encontró una gran ánfora de 120 cm de altura, a la que se denominó Vaso de Darío y entre cuyos dibujos aparece una figura representando un contador que realiza cálculos manipulando cuentas. La segunda muestra arqueológica es un auténtico tablero de conteo encontrado en 1846 en la isla de Salamis; el tablero de Salamis, probablemente usado en Babilonia300 a. C., es una gran pieza de mármol de 149 cm de largo por 75 cm de ancho, con inscripciones que se refieren a ciertos tipos de monedas de la época; este tablero está roto en dos partes. Por otra parte, se sabe que los romanos empleaban su ábaco con piedras caliza o de mármol para las cuentas a las que denominaron "calculi" lo cual es la raíz de la palabra cálculo.

En América.

El imperio incaico (Colombia, Ecuador, Perú, Bolivia, Argentina y Chile) utilizo otra modalidad de ábacos formados por cuerdas anudadas de diversas maneras según la cantidad o el mensaje que se quisiera transmitir. Recibían el nombre de "quipus" (ver imagen) y llegaron a constituir un medio de comunicación muy desarrollado mediante el cual las noticias de una a otra punta del imperio se transmitían a una gran velocidad. También los mesoamericanos mexicas, con la invención del Nepohualtzitzin, que es un ábaco utilizado para realizar operaciones aritméticas de manera rápida. El dispositivo, fabricado con madera, hilos y granos de maíz, también es conocido como "computadora azteca". El uso de este dispositivo cayó en el desuso después de la conquista de México en 1521.

En la Actualidad.

Un hecho muy sorprendente que demuestra la potencia del ábaco fue el ocurrido el 12 de noviembre de 1946 en una competición entre el japonés Kiyoshi Matsuzaki del Ministerio Japonés de comunicaciones que utilizo un ábaco japonés y el estadounidense Thomas Nathan Wood de la armada de ocupación e los Estados Unidos con una calculadora electromecánica. Esta prueba fue llevada a cabo en Tokio, bajo patrocinio del periódico del ejército estadounidense (U.S. Army), Stars and Stripes y Matsuzaki utilizando el ábaco japonés resultó vencedor en cuatro de las cinco pruebas, perdiendo en la prueba con operaciones de multiplicación.

El 13 de noviembre de 1996, los científicos Maria Teresa Cuberes, James K. Gimzewski, y Reto R. Schlittler del laboratorio de IBM de Suiza de la división de investigación, construyeron un ábaco que utiliza como cuentas moléculas cuyo tamaño es inferior a la millonésima parte del milímetro. El "dedo" que mueve las cuentas moleculares es un microscopio de efecto túnel.