Herramientas de usuario

Herramientas del sitio


hpc-uo

Diferencias

Muestra las diferencias entre dos versiones de la página.

Enlace a la vista de comparación

Ambos lados, revisión anteriorRevisión previa
Próxima revisión
Revisión previa
hpc-uo [2017/10/24 21:59] Ernesto Eduardo Diaz Condehpc-uo [2022/11/02 17:58] (actual) – editor externo 127.0.0.1
Línea 1: Línea 1:
-{{ :otraopcion.png?400 }} +{{:logohgpc.jpg?200|}}
-La Computación de Alto Rendimiento (High Performance Computing o HPC) es una herramienta muy importante en el desarrollo de simulaciones computacionales a problemas complejos. Para lograr este objetivo, la computación de alto rendimiento se apoya en tecnologías computacionales como los clústers, supercomputadores o mediante el uso de la computación paralela. La mayoría de las ideas actuales de la computación distribuida se han basado en la computación de alto rendimiento. +
  
 HPC UO es un sistema de procesamiento en paralelo GNU/Linux construido en la Universidad de Oriente dedicado a hacer cálculos científicos. HPC UO es un sistema de procesamiento en paralelo GNU/Linux construido en la Universidad de Oriente dedicado a hacer cálculos científicos.
  
-**Nuestra Misión** es: Proveer una infraestructura de HPC a los profesores y estudiantes de la universidad, asi como dar soporte técnico a los usuarios.+**Nuestra Misión**: Proveer una infraestructura de HPC a los profesores y estudiantes de la universidad, asi como dar soporte técnico a los usuarios.
  
-**Nuestro Lema** es: Dando poder a los investigadores.+**Nuestro Lema**: Dando poder a los investigadores.
  
 Para ayudar a nuestros usuarios a interactuar de una forma más eficiente con nuestros sistemas dedicamos estas páginas en las que podrá encontrar información sobre: Para ayudar a nuestros usuarios a interactuar de una forma más eficiente con nuestros sistemas dedicamos estas páginas en las que podrá encontrar información sobre:
  
-  * [[hpc:inicio_rapido|Guía de inicio rápido]]. +  * [[hpc:uso|Acuerdo de Condiciones de uso]]. 
-  * [[hpc:acceso|Ingresar al clúster]]. +  * [[hpc:inicio_rapido|Guía de inicio rápido + inicio en Slurm]]. 
-  * [[servicios:cuentas|Solicitud de una cuenta de acceso]].+  * [[hpc-faq1|Ingresar al clúster]]. 
 +  * [[solicitar|Solicitud de una cuenta de acceso]].
   * [[hpc:slurm_commds|Trabajo con el clúster]].   * [[hpc:slurm_commds|Trabajo con el clúster]].
   * [[hpc:easybuild|Instalación de software científico]].   * [[hpc:easybuild|Instalación de software científico]].
-  * [[hpc:slurm|Sistema de gestión de colas]].+  * [[hpc:slurm|Sistema de gestión de colas Slurm]]. 
 +  
  
  
 ===== Recursos computacionales ===== ===== Recursos computacionales =====
  
-Nuestro sistema de supercomputo está compuesto por 84 servidores IBM con procesadores Nehalem para servicios de CPU y un servidor DELL con procesadores Sandy Bridge y dos GPUs Nvidia K80 para servicios de GPU, distribuidos de la siguiente forma:+Nuestro sistema de supercomputo está compuesto por servidores SUN FIRE 4470 X con procesadores Intel Xeon X7550 Nehalem-EP, un servidor DELL R-720 con procesadores Sandy Bridge y 13 servidores DELL PowerEdge C6145 con procesadores AMD Opteron, distribuidos de la siguiente forma:
  
 ==== HPC ==== ==== HPC ====
-Para el servicio de HPC se utilizan 50 nodos para el procesamiento CPU y un nodo con dos GPU Nvidia K80 para procesamientos que requieran GPU+Para el servicio de HPC se utilizan 13 nodos para el procesamiento CPU con una arquitectura de Memoria Distribuida 4 procesamiento CPU con una arquitectura de Memoria Compartida
  
-^Equipo^Modelo^Cantidad^Procesador^Cores^RAM^Ethernet+^Equipo^Modelo^Cantidad^Procesador^Cores^RAM^Conexion
-|Nodos delgados|IBM iDataPlex dx360 M2|13|x Intel Xeon L5520 \\ (Gainestown or **Nehalem-EP)** |8|64 GB|2 Ethernet GB| +|Memoria Compartida|SUN-FIRE 4470 X|4|x Intel Xeon X7550 \\ (Gainestown or **Nehalem-EP)** |64|64 GB|2 Ethernet GB| 
-| ::: | ::: |31|x Intel Xeon L5520 \\ (Gainestown or **Nehalem-EP)** |8|16 GB|2 Ethernet GB| +| ::: |DELL R720|1x Intel Xeon E5-2609 \\ (Sandy Bridge-EP)| |16 GB|2 Ethernet GB| 
-::: ::: |6|Intel Xeon L5520 \\ (Gainestown or **Nehalem-EP)** |8|12 GB|Ethernet GB+|Memoria Distribuida|DELL Power Edge C6145|13|AMD Opteron 6136|32|64 GB|Ethernet GB \\ 40 InfiniBand GB |
-|Nodos Gruesos|DELL R720|1| 2 x Intel Xeon E5-2630 \\ (Sandy Bridge-EP) \\   \\ 2 x GPU Nvidia K80|16 \\   \\  \\ 9984|128 GB|4 Ethernet GB|+
  
-El rendimiento teórico del sistema es de 3,90 [[https://es.wikipedia.org/wiki/Operaciones_de_coma_flotante_por_segundo|TFLOPs]] de operaciones en CPU 5,82 TFLOPs de operaciones en GPU. +El rendimiento teórico del sistema es de 2,[[https://es.wikipedia.org/wiki/Operaciones_de_coma_flotante_por_segundo|TFLOPs]] de operaciones en el cluster de Memoria Distribuida 3,99 TFLOPs de operaciones en el cluster de Memoria Compartida
  
 ==== Big Data ==== ==== Big Data ====
  
 ^Nodos^modelo^Cantidad^Procesador^Cores^RAM^Ethernet| ^Nodos^modelo^Cantidad^Procesador^Cores^RAM^Ethernet|
-|Nodos delgados|IBM iDataPlex dx360 M2|30|Intel Xeon L5520 \\ (Gainestown or **Nehalem-EP)** |8|12 GB|2 Ethernet GB|+|DELL Power Edge C6145||1|AMD Opteron 6136|32|64 GB|1 Ethernet GB| 
 +| ::: ||1|2 x AMD Opteron 6136|16|64 GB|1 Ethernet GB| 
 + 
 +El rendimiento teórico del sistema es de 0,45 [[https://es.wikipedia.org/wiki/Operaciones_de_coma_flotante_por_segundo|TFLOPs]] de operaciones en CPU
  
-El rendimiento teórico del sistema es de 2,16 [[https://es.wikipedia.org/wiki/Operaciones_de_coma_flotante_por_segundo|TFLOPs]] de operaciones en CPU 
 =====Solicitud de cuenta===== =====Solicitud de cuenta=====
-El proceso de solicitud de una cuenta para acceder a nuestros servicios, no es complejo, solo debe seguir las instrucciones del siguiente enlace: [[servicios:cuentas|Solicitud de cuentas]]+El proceso de solicitud de una cuenta para acceder a nuestros servicios, no es complejo, solo debe seguir las instrucciones del siguiente enlace: [[solicitar|Solicitud de cuentas]]
  
 ===== Contactos ===== ===== Contactos =====
-Cualquier duda que usted tenga sobre nuestro servicio, puede contactar a nuestro equipo de soporte técnico haciendo [[mailto:soporteuclv@listas.hpc.cu|clic aquí]].+Cualquier duda que usted tenga sobre nuestro servicio, puede contactar a nuestro equipo de soporte técnico haciendo [[mailto:hpc@uo.edu.cu|clic aquí]].
    
hpc-uo.1508882364.txt.gz · Última modificación: 2022/11/02 17:58 (editor externo)

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki