Cluster

🛰️ Introducción

El cluster Ragnar es una infraestructura de cómputo de alto rendimiento (HPC) desarrollada por el Instituto de Astrofísica de la Universidad Andrés Bello. Está diseñado para facilitar simulaciones, análisis de datos y proyectos complejos en astronomía y física, especialmente para estudiantes, investigadores y colaboradores.


💻 Recursos del Cluster

Nodos de cómputo:

  • 6 nodos dedicados a simulaciones y análisis.
  • Total de 136 núcleos de CPU.
  • 1.28 TB de memoria RAM.
NodoNúcleosMemoria (GB)
ragnar01–0228128
ragnar03–0620256

Sistema operativo: CentOS (migración a Rocky Linux en curso)
Gestor de recursos: SLURM


📂 Almacenamiento

  • /mnt/nfs1: espacio compartido, con respaldo diario. Ideal para código y scripts.
  • /scratch: almacenamiento local de alto rendimiento. No se respalda y se purga regularmente.

Recomendaciones:

  • Guarde resultados importantes en /mnt/nfs1.
  • Use /scratch para datos temporales.
  • Elimine archivos innecesarios para evitar eliminación automática.

🔐 Acceso y Solicitud de Cuenta

Para solicitar acceso, complete el formulario disponible en esta misma página.

Requisitos del formulario:

  • Nombre, correo institucional, RUT/pasaporte, universidad y facultad.
  • Detalles técnicos del proyecto.
  • Software necesario y necesidades de almacenamiento.
  • Aceptación de políticas de uso.

Conexión vía SSH:

ssh usuario@172.20.1.138

🧰 Entorno de Software

Lenguajes disponibles: Python, Julia, MATLAB, R
Software astronómico: Astropy, IRAF, DS9, SExtractor
Visualización: ParaView, Matplotlib, Gnuplot
Utilidades: MPI, Git, CUDA, CMake

Se utiliza Lmod para cargar módulos de software y EasyBuild para su instalación reproducible.

Comandos útiles:

ml av                     # Ver módulos disponibles
ml spider python # Buscar módulo
ml Python/3.11.3 # Cargar módulo
ml unload Python/3.11.3 # Descargar módulo
ml purge # Descargar todos los módulos

📋 SLURM y Gestión de Trabajos

SLURM organiza y gestiona los recursos del cluster. La partición por defecto es LocalQ.

Script de ejemplo: 1 tarea, 20 núcleos

#!/bin/bash
#SBATCH --job-name=python20
#SBATCH --partition=LocalQ
#SBATCH --ntasks=1
#SBATCH --cpus-per-task=20
#SBATCH --mem=100G
#SBATCH --time=08:00:00
#SBATCH --output=python20_%j.out

module load python/3.11.3
srun python my_script.py

Comandos frecuentes:

sinfo                 # Ver estado de nodos
squeue # Ver trabajos en cola
sbatch script.sh # Enviar trabajo por lote
srun --pty bash # Sesión interactiva
scancel <jobid> # Cancelar trabajo
sacct # Consultar trabajos finalizados

🧬 Paralelismo

El cluster soporta tres tipos de paralelismo:

  • MPI: múltiples procesos independientes (paralelismo entre nodos).
  • OpenMP: hilos en un único proceso (paralelismo dentro del nodo).
  • Híbrido: combinación de MPI + OpenMP.

Ejemplo híbrido:

sbatch --ntasks=4 --cpus-per-task=7 --mem=48G --time=2:00:00 script.sh

🖥️ Aplicaciones Gráficas (ThinLinc)

ThinLinc permite el uso de aplicaciones gráficas como DS9 o TOPCAT desde el cluster, sin necesidad de transferir archivos.

Ventajas:

  • Visualización remota de grandes volúmenes de datos.
  • Sesiones persistentes.
  • Acceso a interfaz gráfica desde cualquier computador.

Importante: no ejecutar simulaciones pesadas en ThinLinc; solo usar SLURM para eso.


🌌 Casos de Uso en Astrofísica

  • Simulación de formación de galaxias y cúmulos.
  • Modelado de ondas gravitacionales.
  • Procesamiento de catálogos y detección de eventos transitorios.
  • Comparación de rendimiento entre laptop y cluster.

📢 Soporte y Comunidad

  • 📄 Documentación y formulario: disponible en esta misma página.
  • 📧 Soporte técnico: ia_cluster@unab.cl
  • 🎓 Capacitación: el Instituto ofrece talleres y cursos sobre HPC y astrofísica computacional.

Reconocimientos / Acknowledgements

Para toda publicación científica (artículos, tesis, pósters, informes) que utilice recursos del cluster Ragnar, solicitamos incluir una mención de reconocimiento. Puede elegir una de las siguientes frases en inglés:

  • This work made partial use of the RAGNAR computer server at Universidad Andrés Bello for calculations.
  • The computations were carried out using the RAGNAR computer server at Universidad Andrés Bello.

Recomendación: añada esta mención en la sección de Agradecimientos (Acknowledgements).

Sugerencia adicional: al publicar, por favor envíe el DOI o referencia al equipo de soporte en ia_cluster@unab.cl para registro de impacto.