New Activity
Play Quiz
1. 
¿Qué es la computación paralela?
A.
Es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente,1​ operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo)
B.
Permite a múltiples procesos compartir una única CPU.
C.
Imita a los anteriores en un intento de mantener la consistencia entre bloques de memoria en sistemas con débil acoplamiento.
2. 
¿Quién fue el creador de la computación paralela?
A.
Steve Jobs
B.
Larry Page
C.
Gene Amdahl
3. 
¿Cuáles son los tipos de computación paralela:?
A.
Paralelismo a nivel de bit, Paralelismo a nivel de instrucción, Paralelismo de datos, Paralelismo de tareas.
B.
Establecimiento de la conexión, Transferencia de la información, Liberación de la conexión
C.
Conmutación de paquetes, Conmutación de circuitos
4. 
¿Qué es el paralelismo de tareas?
A.
Permite a múltiples procesos compartir una única CPU, múltiples CPUs pueden ser utilizados para ejecutar múltiples hilos dentro de un único proceso.
B.
Es la característica de un programa paralelo en la que cálculos completamente diferentes se pueden realizar en cualquier conjunto igual o diferente de datos.
C.
Son más difíciles de escribir que los secuenciales,5​ porque la concurrencia introduce nuevos tipos de errores de software
5. 
¿Cuál es la definición del Paralelismo de Datos?
A.
Es el paralelismo inherente en programas con ciclos, que se centra en la distribución de los datos entre los diferentes nodos computacionales que deben tratarse en paralelo.
B.
En un nodo a la conexión física o lógica de un camino de entrada al nodo con un camino de salida del nodo con el fin de transferir la información
C.
Se utiliza sobre todo en el caso de los multicomputadores para conectar los diversos procesadores
6. 
Los ordenadores paralelos se pueden clasificar según el nivel de paralelismo que admite su hardware. ¿Cuáles son?
A.
Grado de los nodos, Diámetro de una red, Ancho de bisección
B.
Escalabilidad, Simetría, Conectividad
C.
Los ordenadores multinúcleo y multiproceso
7. 
Hay 2 tipos de sistemas de memoria ¿cuales son esos sistemas?
A.
Sistema de Memoria Compartida y Distribuida
B.
Multitarea, multiprocesamiento
C.
chipset y proceso
8. 
¿Qué es un sistema de memoria compartida?
A.
Se basa en el principio de que los problemas grandes se pueden dividir en partes más pequeñas que pueden resolverse de forma concurrente
B.
Son sistemas con múltiples procesadores que comparten un único espacio de direcciones de memoria
C.
Un programa de ordenador es, en esencia, una secuencia de instrucciones ejecutadas por un procesador.
9. 
Dentro de la memoria compartida hay una clasificación de redes ¿Cuáles son?
A.
Redes de interconexion dinamicas o indirectas, Red dinamica, Red indirecta
B.
Escalabilidad, Simetría y Conectividad
C.
Redes Mariposa, Redes Delta y Redes de Closs
10. 
¿Qué es un sistema de memoria distribuida?
A.
Es un tipo de implementación hardware y software, en la que cada nodo de un cluster tiene acceso a una amplia memoria compartida que se añade a la memoria limitada privada, no compartida, propia de cada nodo.
B.
El objetivo de la interconexión de red es dar un servicio de comunicación de datos que involucre diversas redes con diferentes tecnologías de forma transparente para el usuario.
C.
Todos los nodos ejecutan el mismo programa, pero no las mismas instrucciones.
11. 
¿Cuál es la clasificación del sistema de memoria distribuida según sus características?
A.
Alto rendimiento, Alta disponibilidad, Alta eficiencia.
B.
Organización, Acceso secuencial, Acceso directo, Acceso aleatorio, Acceso asociativo
C.
Organización, Tiempo de acceso, Memoria de acceso aleatorio
12. 
¿Qué es un cluster dentro del sistema de memoria distribuida?
A.
Es un tipo de implementación hardware y software, en la que cada nodo de un cluster tiene acceso a una amplia memoria compartida que se añade a la memoria limitada privada, no compartida, propia de cada nodo.
B.
Es un programa que ayuda al diseño de la computación
C.
Son conjuntos o conglomerados de computadoras construidos mediante la utilización de componentes de hardware comunes y que se comportan como si fuesen una única computadora