VINCULACIÓN TECNOLÓGICA

“Esta tecnología es indispensable para tener resultados rápidos”

La informática de alto rendimiento permite que científicos e ingenieros solucionen problemas industriales y empresariales complejos.


En el marco del ciclo de charlas “De la Ciencia a la Tecnología” que organiza el Centro de Simulación Computacional ubicado en el Polo Científico y Tecnológico de Buenos Aires, Esteban Mocskos, investigador asistente del CONICET, habló sobre el funcionamiento y los beneficios de la computación de alto rendimiento (HPC, High Performance Computing).

En la charla, Mocskos explicó que la HPC puede ayudar a resolver problemas que no pueden ser abordados en computadoras convencionales, por cuestiones asociadas a los tiempos y capacidad de procesamiento de la información.

“Esta tecnología es indispensable cuando se necesita tener resultados rápidos y cuando el requerimiento de memoria es demasiado grande. El caso emblemático es el del reporte del clima: no se pueden esperar 48hs para saber cuál va a ser el pronóstico de mañana”, aseguró.

Cuando se alude al término HPC se hace referencia a ’supercomputadoras‘ o a un conjuntos de equipos conectados entre sí, con capacidades de cálculo muy superiores a las computadoras corrientes de escritorio y que son usadas con fines específicos, como el cómputo de alto desempeño.

Al respecto, Mocskos dijo que “el uso de estas máquinas de alto rendimiento está directamente vinculado con la innovación, ya que obtener un mejor resultado u optimizar un diseño implica un salto hacia adelante”.

Además, comentó que actualmente se está viviendo un problema tecnológico referido a la cantidad enorme de datos que se producen. “Veinte petabites –un petabite equivale a 1000 terabytes- es la capacidad de almacenamiento de todos los discos rígidos que se fabricaron en 1995. En comparación, es aproximadamente la cantidad de datos que procesa Google en un solo día”

A los datos científicos o académicos, ahora hay que agregarle los generados por los ciudadanos, por ejemplo, a través de los teléfonos. Según Mocskos este es un inconveniente muy común que se conoce como las tres V de la big data: la variedad, el volumen y la velocidad de acceso.

“El volumen se refiere a la cantidad de información para procesar, la velocidad al tiempo para ejecutar dicha tarea, y la variedad hace hincapié en que los datos ya no tienen una estructura sino que poseen tantas posibles que vuelven a la tarea de clasificarlos muy desafiante”, explicó.

Durante la charla se abordó la problemática energética en relación a los grandes equipos de cómputo de alto desempeño. “Este problema está siempre dando vueltas y la idea es llegar a tener poder de cómputo y análisis con el menor gasto posible. De nada nos sirve tener un super cluster para estudiar el cambio climático si es que luego nos convertimos en generadores de dicho problema por el consumo de energía que acarrean las máquinas.”, concluyó.

 

Por Jimena Naser.