
lunes, 14 de septiembre de 2009
domingo, 6 de septiembre de 2009
Microcomputadora
El Commodore 64 fue uno de los más famosos microordenadores de su época.
Una microcomputadora es una computadora que tiene un microprocesador (unidad central de procesamiento).
Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.
Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora personal se aplica a las microcomputadora orientados a los consumidores. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes.
Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo.. Sus principales características son:
Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.
Usuario a la vez: Uno (Por eso se llaman Personales).
Su uso mas comun es para propositos personales.
Tamaño: Pequeña, o portátiles.
Facilidad de uso: Supuestamente fáciles de usar.
Clientes usuales: Pequeñas empresas, oficinas, escuelas,
Penetración social: Mediana.

Una microcomputadora es una computadora que tiene un microprocesador (unidad central de procesamiento).
Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.
Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora personal se aplica a las microcomputadora orientados a los consumidores. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes.
Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo.. Sus principales características son:
Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.
Usuario a la vez: Uno (Por eso se llaman Personales).
Su uso mas comun es para propositos personales.
Tamaño: Pequeña, o portátiles.
Facilidad de uso: Supuestamente fáciles de usar.
Clientes usuales: Pequeñas empresas, oficinas, escuelas,
Penetración social: Mediana.

Minicomputadora
Actualmente más conocidos como servidores, es una clase de computadoras multiusuario, que se encuentran en el rango intermedio del espectro computacional; es decir entre los grandes sistemas multiusuario (mainframes), y los más pequeños sistemas monousuarios (microcomputadoras, computadoras personales, ó PC).
El nombre comenzó a hacerse popular a mediados de la década de los 60s, para identificar un tercer tipo de computadoras, diseñadas gracias a dos innovaciones fundamentales:
1- El uso del transistor (que impactó directamente en la creación de equipos con tamaños menores al mainframe), y
2- Las mejoras en el diseño de la memoria RAM, que permitieron una mayor disponibilidad de recursos.
Posteriormente, durante los 80s, el minicomputador por excelencia fue la línea AS-400 de IBM. Sin embargo, más recientemente equipos servidores bien poderosos; diseñados por fabricantes como la misma IBM, HP, y DELL entran perfectamente en esta categoría.
La expansión en el uso de servidores tuvo lugar debido al menor coste del soporte físico basado en microprocesadores y el deseo de los usuarios finales de depender menos de los inflexibles terminales tontos, con el resultado de que los mainframes y los terminales fueron remplazados por computadoras personales interconectadas entre sí, conectadas con un servidor.
El movimiento fue facilitado no solo por el microprocesador, sino también por el desarrollo de varias versiones de Unix multiplataforma (con microprocesadores Intel incluidos) como Solaris, Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows, a partir de Windows NT, también incluye versiones de servidor que soportan multitareas y cientos de funciones para servidores.
Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de minicomputadoras HP3000 como servidores.

El nombre comenzó a hacerse popular a mediados de la década de los 60s, para identificar un tercer tipo de computadoras, diseñadas gracias a dos innovaciones fundamentales:
1- El uso del transistor (que impactó directamente en la creación de equipos con tamaños menores al mainframe), y
2- Las mejoras en el diseño de la memoria RAM, que permitieron una mayor disponibilidad de recursos.
Posteriormente, durante los 80s, el minicomputador por excelencia fue la línea AS-400 de IBM. Sin embargo, más recientemente equipos servidores bien poderosos; diseñados por fabricantes como la misma IBM, HP, y DELL entran perfectamente en esta categoría.
La expansión en el uso de servidores tuvo lugar debido al menor coste del soporte físico basado en microprocesadores y el deseo de los usuarios finales de depender menos de los inflexibles terminales tontos, con el resultado de que los mainframes y los terminales fueron remplazados por computadoras personales interconectadas entre sí, conectadas con un servidor.
El movimiento fue facilitado no solo por el microprocesador, sino también por el desarrollo de varias versiones de Unix multiplataforma (con microprocesadores Intel incluidos) como Solaris, Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows, a partir de Windows NT, también incluye versiones de servidor que soportan multitareas y cientos de funciones para servidores.
Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de minicomputadoras HP3000 como servidores.

Computadora central
La capacidad de una computadora central se define tanto por la velocidad de su CPU como por su gran memoria interna, su alta y gran capacidad de almacenamiento externo, sus resultados en los dispositivo E/S rápidos y considerables, la alta calidad de su ingeniería interna que tiene como consecuencia una alta fiabilidad y soporte técnico caro pero de alta calidad. Una computadora central puede funcionar durante años sin problemas ni interrupciones y las reparaciones del mismo pueden ser realizadas mientras está funcionando. Los vendedores de computadoras centrales ofrecen servicios especiales; por ejemplo, si se rompe la computadora, el vendedor ejecutará las aplicaciones de su cliente en sus propias computadoras sin que los usuarios lo noten mientras que duran las reparaciones. La independencia interna de estas computadoras es tan grande que, por lo menos, en un caso conocido, los técnicos pudieron cambiar las computadoras centrales de sitio desmontándolas pieza a pieza y montándolas en otro lugar, dejando, mientras tanto, dichas computadoras funcionando; en este ejemplo, el cambio de las computadoras centrales de un sitio a otro se produjo de manera transparente.
A menudo, las computadoras centrales soportan miles de usuarios de manera simultánea que se conectan mediante falsos terminales. Algunas computadoras centrales pueden ejecutar o dar cobijo a muchos sistemas operativos y por lo tanto, no funcionan como una computadora sola, sino como varias computadoras virtuales. En este papel, una computadora central por sí sola puede remplazar docenas o cientos de pequeñas computadoras personales, reduciendo los costes administrativos y de gestión al tiempo que ofrece una escalabilidad y fiabilidad mucho mejor. La fiabilidad se consigue por la independencia de sus componentes internos señalada anteriormente, y la escalabilidad se logra porque los recursos físicos de la computadora pueden ser redistribuidos entre los terminales virtuales según las necesidades; esto es mucho más difícil de hacer con las computadoras personales, porque para quitar o añadir nuevos componentes físicos hay que desenchufar la computadora muchas veces y las limitaciones de dichos componentes son mucho mayores. Cuando una computadora central actúa como el centro de operaciones de muchos terminales virtuales, puede ofrecer la potencia necesaria para que dichas computadoras operen de manera eficiente, pero también la flexibilidad de las redes de computadoras personales.
Actualmente, las computadoras centrales de IBM dominan el mercado, junto con Hitachi, Amdahl y Fujitsu. Los precios no suelen ser menos de varios cientos de miles de dólares.
A menudo, las computadoras centrales soportan miles de usuarios de manera simultánea que se conectan mediante falsos terminales. Algunas computadoras centrales pueden ejecutar o dar cobijo a muchos sistemas operativos y por lo tanto, no funcionan como una computadora sola, sino como varias computadoras virtuales. En este papel, una computadora central por sí sola puede remplazar docenas o cientos de pequeñas computadoras personales, reduciendo los costes administrativos y de gestión al tiempo que ofrece una escalabilidad y fiabilidad mucho mejor. La fiabilidad se consigue por la independencia de sus componentes internos señalada anteriormente, y la escalabilidad se logra porque los recursos físicos de la computadora pueden ser redistribuidos entre los terminales virtuales según las necesidades; esto es mucho más difícil de hacer con las computadoras personales, porque para quitar o añadir nuevos componentes físicos hay que desenchufar la computadora muchas veces y las limitaciones de dichos componentes son mucho mayores. Cuando una computadora central actúa como el centro de operaciones de muchos terminales virtuales, puede ofrecer la potencia necesaria para que dichas computadoras operen de manera eficiente, pero también la flexibilidad de las redes de computadoras personales.
Actualmente, las computadoras centrales de IBM dominan el mercado, junto con Hitachi, Amdahl y Fujitsu. Los precios no suelen ser menos de varios cientos de miles de dólares.
Supercomputadora
Supercomputadora o Superordenador es un ordenador con capacidades de cálculo muy superiores a las comúnmente disponibles de las máquinas de escritorio de la misma época en que fue construida.
Hoy se utiliza en ingeniería, medicina y ciencia. Eso incluye el desarrollo de biocombustibles y el diseño de vehículos que gasten menos combustible. Ingenieros de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología del ordenador. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de superordenadores de IBM. En cierta forma, se trata "de una versión superior de Sony PlayStation 3, indicó. "Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad, informó Turek.
Sin embargo, el superordenador Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 m² de espacio. Cuenta con 91,7 km de fibra óptica y pesa 226,8 t . El Superordenador está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Alamos, en Nuevo México.[[m2]]
Características Las principales son:
Velocidad de Proceso: miles de millones de instrucciones de coma flotante por segundo
Usuarios a la vez: hasta miles, en entorno de redes amplias
Tamaño: requieren instalaciones especiales y aire acondicionado industrial
Dificultad de uso: solo para especialistas
Clientes usuales: grandes centros de investigación
Penetración social: prácticamente nula.
Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Phi, desarrollar cálculos de problemas físicos dejando un bajo margen de error, etc.
Parques instalados: menos de un millar en todo el mundo
Costo: hasta decenas de millones de euros cada una
Hoy se utiliza en ingeniería, medicina y ciencia. Eso incluye el desarrollo de biocombustibles y el diseño de vehículos que gasten menos combustible. Ingenieros de IBM y del laboratorio de Los Álamos trabajaron seis años en la tecnología del ordenador. Algunos elementos de Roadrunner tienen como antecedentes videojuegos populares, de acuerdo con David Turek, vicepresidente del programa de superordenadores de IBM. En cierta forma, se trata "de una versión superior de Sony PlayStation 3, indicó. "Tomamos el diseño básico del chip (de PlayStation) y mejoramos su capacidad, informó Turek.
Sin embargo, el superordenador Roadrunner difícilmente pueda asemejarse a un videojuego. El sistema de interconexión ocupa 557 m² de espacio. Cuenta con 91,7 km de fibra óptica y pesa 226,8 t . El Superordenador está en el laboratorio de investigaciones de IBM en Poughkeepsie, Nueva York y fue trasladada en julio del 2008 al Laboratorio Nacional Los Alamos, en Nuevo México.[[m2]]
Características Las principales son:
Velocidad de Proceso: miles de millones de instrucciones de coma flotante por segundo
Usuarios a la vez: hasta miles, en entorno de redes amplias
Tamaño: requieren instalaciones especiales y aire acondicionado industrial
Dificultad de uso: solo para especialistas
Clientes usuales: grandes centros de investigación
Penetración social: prácticamente nula.
Impacto social: muy importante en el ámbito de la investigación, ya que provee cálculos a alta velocidad de procesamiento, permitiendo, por ejemplo, calcular en secuencia el genoma humano, número Phi, desarrollar cálculos de problemas físicos dejando un bajo margen de error, etc.
Parques instalados: menos de un millar en todo el mundo
Costo: hasta decenas de millones de euros cada una
Computador hibrido
Los computadores híbridos son computadores que exhiben características de computadores analógicos y computadores digitales. El componente digital normalmente sirve como el controlador y proporciona operaciones lógicas, mientras que el componente análogo sirve normalmente como solucionador de ecuaciones diferenciales.
En general, los computadores analógicos son extraordinariamente rápidos, puesto que pueden solucionar las más complejas ecuaciones a la rata en la cual una señal atraviesa el circuito, que generalmente es una fracción apreciable de la velocidad de la luz. Por otro lado, la precisión de computadores analógicos no es buena; se limitan a tres, o a lo más, cuatro dígitos de precisión.
Los computadores digitales pueden ser construidos para llevar la solución de ecuaciones a una casi ilimitada precisión, pero de una manera sumamente lenta comparado a los computadores analógicos. Generalmente, las ecuaciones complejas son aproximadas usando métodos numéricos iterativos que toman grandes números de iteraciones, dependiendo de cuan buena es la "conjetura inicial" con respecto al valor final y a cuánta precisión se desea. Esta conjetura inicial es conocida como la semilla numérica para el proceso iterativo. Para muchas operaciones en tiempo real, la velocidad de tales cálculos digitales es demasiado lenta para ser de mucho uso (ej, para radares de phased array de muy alta frecuencia o para cálculos del tiempo), sin embargo, la precisión de una computadora analógica es escasa.
Los computadores híbridos pueden ser usados para obtener un valor se 'semilla' muy bueno pero relativamente impreciso, usando un computador analógico como frontal (front-end), que entonces es alimentado en un proceso iterativo del computador digital para alcanzar el grado deseado final de precisión. Con una semilla altamente exacta de tres o cuatro dígitos, se reduce dramáticamente el tiempo total de cómputo digital necesario para alcanzar la precisión deseada, puesto que se requieren mucho menos iteraciones.
Considere que el sistema nervioso en animales es una forma de computador híbrido. Las señales pasan a través de las sinapsis desde una célula nerviosa a la siguiente como paquetes (digitales) discretos de productos químicos, que entonces son sumados dentro de la célula nerviosa en una manera analógica construyendo un potencial electroquímico hasta que su umbral es alcanzado, con lo cual descarga y envía una serie de paquetes digitales a la siguiente célula nerviosa. Las ventajas son por lo menos triples: el ruido dentro del sistema es reducido al mínimo (y tiende a no ser aditivo), no se requiere un sistema común de tierra, y hay mínima degradación de la señal incluso si hay diferencias substanciales en la actividad de las células a lo largo de una trayectoria (solamente tienden a variar los retardos de la señal). Las células nerviosas individuales son análogas a los computadoras analógicos; las sinapsis son análogas a los computadores digitales.
Observe que los computadores híbridos deben ser distinguidos de los sistemas híbridos. Este último puede ser no más que un computador digital equipado con un convertidor analógico-digital en la entrada y/o un convertidor digital-analógico en la salida, con el propósito de convertir las señales analógicas para el procesamiento digital ordinario y viceversa, por ejemplo, para manejar sistemas de control físicos, tales como servomecanismos.
En general, los computadores analógicos son extraordinariamente rápidos, puesto que pueden solucionar las más complejas ecuaciones a la rata en la cual una señal atraviesa el circuito, que generalmente es una fracción apreciable de la velocidad de la luz. Por otro lado, la precisión de computadores analógicos no es buena; se limitan a tres, o a lo más, cuatro dígitos de precisión.
Los computadores digitales pueden ser construidos para llevar la solución de ecuaciones a una casi ilimitada precisión, pero de una manera sumamente lenta comparado a los computadores analógicos. Generalmente, las ecuaciones complejas son aproximadas usando métodos numéricos iterativos que toman grandes números de iteraciones, dependiendo de cuan buena es la "conjetura inicial" con respecto al valor final y a cuánta precisión se desea. Esta conjetura inicial es conocida como la semilla numérica para el proceso iterativo. Para muchas operaciones en tiempo real, la velocidad de tales cálculos digitales es demasiado lenta para ser de mucho uso (ej, para radares de phased array de muy alta frecuencia o para cálculos del tiempo), sin embargo, la precisión de una computadora analógica es escasa.
Los computadores híbridos pueden ser usados para obtener un valor se 'semilla' muy bueno pero relativamente impreciso, usando un computador analógico como frontal (front-end), que entonces es alimentado en un proceso iterativo del computador digital para alcanzar el grado deseado final de precisión. Con una semilla altamente exacta de tres o cuatro dígitos, se reduce dramáticamente el tiempo total de cómputo digital necesario para alcanzar la precisión deseada, puesto que se requieren mucho menos iteraciones.
Considere que el sistema nervioso en animales es una forma de computador híbrido. Las señales pasan a través de las sinapsis desde una célula nerviosa a la siguiente como paquetes (digitales) discretos de productos químicos, que entonces son sumados dentro de la célula nerviosa en una manera analógica construyendo un potencial electroquímico hasta que su umbral es alcanzado, con lo cual descarga y envía una serie de paquetes digitales a la siguiente célula nerviosa. Las ventajas son por lo menos triples: el ruido dentro del sistema es reducido al mínimo (y tiende a no ser aditivo), no se requiere un sistema común de tierra, y hay mínima degradación de la señal incluso si hay diferencias substanciales en la actividad de las células a lo largo de una trayectoria (solamente tienden a variar los retardos de la señal). Las células nerviosas individuales son análogas a los computadoras analógicos; las sinapsis son análogas a los computadores digitales.
Observe que los computadores híbridos deben ser distinguidos de los sistemas híbridos. Este último puede ser no más que un computador digital equipado con un convertidor analógico-digital en la entrada y/o un convertidor digital-analógico en la salida, con el propósito de convertir las señales analógicas para el procesamiento digital ordinario y viceversa, por ejemplo, para manejar sistemas de control físicos, tales como servomecanismos.

Computador analógico
Una computadora analógica u ordenador real es un tipo de computadora que utiliza dispositivos electrónicos o mecánicos para modelar el problema a resolver utilizando un tipo de cantidad física para representar otra.
Para el modelado se utiliza la analogía existente en términos matemáticos de algunas situaciones en diferentes campos. Por ejemplo, la que existe entre los movimientos oscilatorios en mecánica y el análisis de corrientes alternas en electricidad. Estos dos problemas se resuelven por ecuaciones diferenciales y pueden asemejarse términos entre uno y otro problema para obtener una solución satisfactoria.
Usado en contraposición a las computadoras digitales, en los cuales los fenómenos físicos o mecánicos son utilizados para construir una máquina de estado finito que es usada después para modelar el problema a resolver. Hay un grupo intermedio, los computadores híbridos, en los que un computador digital es utilizado para controlar y organizar entradas y salidas hacia y desde dispositivos analógicos anexos; por ejemplo, los dispositivos analógicos podrían ser utilizados para generar valores iniciales para iteraciones. Así, un ábaco sería un computador digital, y una regla de cálculo un computador analógico.
Los computadores analógicos ideales operan con números reales y son diferenciales, mientras que los computadores digitales se limitan a números computables y son algebraicos. Esto significa que los computadores analógicos tienen una tasa de dimensión de la información (ver teoría de la información), o potencial de dominio informático más grande que los computadores digitales (ver teorema de incompletitud de Gödel). Esto, en teoría, permite a los computadores analógicos resolver problemas que son indescifrables con computadores digitales.
Los teóricos de la informática suelen usar el término ordenador real (llamado así porque opera dentro del conjunto de números reales), para evitar los malentendidos populares sobre los computadores analógicos.
Algunos ejemplos de computadores analógicos son:
Predictores de marea
Integrador de agua
Computador de datos del objetivo para submarinos
Para el modelado se utiliza la analogía existente en términos matemáticos de algunas situaciones en diferentes campos. Por ejemplo, la que existe entre los movimientos oscilatorios en mecánica y el análisis de corrientes alternas en electricidad. Estos dos problemas se resuelven por ecuaciones diferenciales y pueden asemejarse términos entre uno y otro problema para obtener una solución satisfactoria.
Usado en contraposición a las computadoras digitales, en los cuales los fenómenos físicos o mecánicos son utilizados para construir una máquina de estado finito que es usada después para modelar el problema a resolver. Hay un grupo intermedio, los computadores híbridos, en los que un computador digital es utilizado para controlar y organizar entradas y salidas hacia y desde dispositivos analógicos anexos; por ejemplo, los dispositivos analógicos podrían ser utilizados para generar valores iniciales para iteraciones. Así, un ábaco sería un computador digital, y una regla de cálculo un computador analógico.
Los computadores analógicos ideales operan con números reales y son diferenciales, mientras que los computadores digitales se limitan a números computables y son algebraicos. Esto significa que los computadores analógicos tienen una tasa de dimensión de la información (ver teoría de la información), o potencial de dominio informático más grande que los computadores digitales (ver teorema de incompletitud de Gödel). Esto, en teoría, permite a los computadores analógicos resolver problemas que son indescifrables con computadores digitales.
Los teóricos de la informática suelen usar el término ordenador real (llamado así porque opera dentro del conjunto de números reales), para evitar los malentendidos populares sobre los computadores analógicos.
Algunos ejemplos de computadores analógicos son:
Predictores de marea
Integrador de agua
Computador de datos del objetivo para submarinos

Suscribirse a:
Comentarios (Atom)

