BREVE HISTORIA DE LA COMPUTADORE TRABAJO DE COMPUTACION

Please download to get full document.

View again

of 4
All materials on our website are shared by users. If you have any questions about copyright issues, please report us to resolve them. We are always happy to assist you.
Similar Documents
Information Report
Category:

Creative Writing

Published:

Views: 43 | Pages: 4

Extension: PDF | Download: 0

Share
Description
BREVE HISTORIA DE LA COMPUTADORE TRABAJO DE COMPUTACION
Tags
Transcript
   LICEO TECNOCIENCIA BILINGÜE DE CHIQUIMULA Prof. Luis Fernando Gonzales Agustín Computación I Breve historia de la Computadora Amelia Isabel Morataya Nájera 4to. Perito Contador  BREVE HISTORIA DE LA COMPUTADORA La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de diez dientes en las que cada uno de los dientes representaba un digito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el numero de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para  procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacia  pasar tarjetas perforadas sobre contactos eléctricos. CONCEPTO DE LA COMPUTADORA Ordenador o Computadora, dispositivo capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información. INICIOS Y ORIGENES En el siglo XIX el matemático e inventor británico Charles Babbage elaboró los  principios de la computadora digital moderna. Invento una serie de maquinas, como la maquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la maquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primero modelos realizaban los cálculos mediantes ejes y engranajes giratorios. Con estas maquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.  GENERACIONES Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se considero el primer ordenador digital totalmente electrónico: el Colossus . Hacia diciembre de 1943 el Colossus , que incorporaba 1,500 válvulas o tubos de vacio, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para decodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de maquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y mas tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en ingles ENIAC,  Electronic Numerical Integrator and Computer  ) en 1946. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en ingles ABC,  Atanasoff-Berry Computer  ), obtuvo una patente que caduco en 1973, varias décadas mas tarde. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador. A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos mas pequeños rápidos y versátiles de lo que permitían las maquinas con válvulas. Como los transistores utilizaban mucha menos energía y tienen una vida útil mas prolongada, a su desarrollo se debió el nacimiento de maquinas mas  perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. A finales de la década de 1960 apareció el circuito integrado (CI). El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, a acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated). Todos los ordenadores digitales modernos son similares conceptualmente con independencia de su tamaño. Sin embargo, pueden dividirse en varias categorías según su  precio y rendimiento: el ordenador o computadora personal es una maquina de coste relativamente bajo y por lo general de tamaño adecuado para un escritorio; la estación de trabajo , un microprocesador con gráficos mejorados y capacidades de comunicaciones que lo hacen especialmente útil para el trabajo de oficina; el miniordenador o minicomputadora, un ordenador de mayor tamaño que por lo general es demasiado caro para el uso personal y que es apto para compañías, universidades o laboratorios; y el mainframe, una gran maquina de alto precio capaz de servir a las necesidades de grandes empresas, departamentos gubernamentales, instituciones de investigaciones científica y similares (las maquinas mas grandes y mas rápidas dentro de esta categoría se denominan superordenadores).   En realidad, un ordenador digital no es una única maquina, en el sentido en el que la mayoría de la gente considera a los ordenadores. Es un sistema compuesto de cinco elementos diferenciados: una CPU (unidad central de proceso); dispositivos de entrada; dispositivos de almacenamiento de memoria; dispositivos de salida y una red de comunicaciones, denominada bus, que enlaza todos los elementos del sistema y conecta a este con el mundo exterior. TIPOS DE ORDENADORES O COMPUTADORAS En la actualidad se utilizaban dos tipos principales de ordenadores: analógicos y digitales. Sin embargo, el termino ordenador o computadora suele utilizarse para referirse exclusivamente al tipo digital. Los ordenadores analógicos aprovechan la similitud matemática entre las interrelaciones físicas de determinados problemas y emplean circuitos electrónicos o hidráulicos para simular el problema físico. Los ordenadores digitales resuelven los problemas realizando cálculos y tratando cada numero digito por digito. ORDENADORES ANALOGICOS El ordenador analógico es un dispositivo electrónico o hidráulico para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculos analógico mas sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En el típico ordenador analógico electrónico, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada. ORDENADORES DIGITALES Todo lo que hace un ordenador digital se basa en una operación: la capacidad de determinar si un co nmutador, o “puerta”, esta abierto o cerrado . Es decir, el ordenador  puede reconocer solo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensiono, en el caso de los números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador se miden en megahercios (millones de ciclos por segundo), aunque en la actualidad se alcanzan velocidades del orden de los gigahercios (miles de millones de ciclos por segundo). Un ordenador con una velocidad de reloj de 1 gigahercio (GHz), velocidad bastante representativa de un microordenador o microcomputadora. Es capaz de ejecutar 1,000 millones de operaciones discretas por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y defensa alcanzan velocidades de billones de ciclos por segundo.
We Need Your Support
Thank you for visiting our website and your interest in our free products and services. We are nonprofit website to share and download documents. To the running of this website, we need your help to support us.

Thanks to everyone for your continued support.

No, Thanks
SAVE OUR EARTH

We need your sign to support Project to invent "SMART AND CONTROLLABLE REFLECTIVE BALLOONS" to cover the Sun and Save Our Earth.

More details...

Sign Now!

We are very appreciated for your Prompt Action!

x