Computación.

El BIFI es uno de los centros de e-ciencia más relevantes en España, tanto como proveedores de recursos como por los usuarios científicos. Compuesta principalmente por ingenieros y físicos, el Área de Computación incluye una amplia gama de actividades, investigación tecnológica, apoyo a usuarios, investigación aplicada, transferencia de tecnología, difusión.

El BIFI aloja el Centro de Supercomputación de Aragón (Cesar), una infraestructura de cómputo que abarca un amplio conjunto de tecnologías: HPC (memoria distribuida y compartida), grid, cloud, computación voluntaria y ordenadores dedicados.

De hecho, el Área de Computación se estructura en cuatro líneas de investigación:

  • Ciencia Ciudadana
  • Análisis de Datos, Visualización Avanzada y Desarrollo de Software
  • Computación de Alto Rendimiento (HPC)
  • Grid y Cloud Computing
  • Ordenadores Dedicados

Los recursos de computación HPC ofrecen varios millones de horas de CPU y cientos de terabytes de almacenamiento por año, a los investigadores del BIFI (y sus colaboradores) y a usuarios externos a través de la Red Española de Supercomputación, el programa Hosted Clusters y otros servicios prestados.

También las infraestructuras grid y cloud proporcionan recursos informáticos a una amplia gama de investigaciones, que tienen requisitos específicos o complementarios a los ofrecidos por las infraestructuras HPC. Además de esto, también sirven como banco de pruebas para empresas y pymes españolas y europeas, que están dispuestas a adoptar estas tecnologías para mejorar su modelo de negocio. Por lo tanto, en los últimos años, hemos centrado nuestra investigación y las infraestructuras cloud para ayudar a las PYME sobre cómo obtener ventaja de estas poderosas tecnologías.

En la línea de investigación de ordenadores de propósito especial, se trabaja en el diseño y construcción de máquinas dedicadas a resolver problemas muy específicos, como el premiado superordenador JANUS, basado en FPGAs y con relevantes resultados científicos.

BIFI es una referencia internacional en actividades de ciencia ciudadana y lidera el proyecto de computación voluntaria Ibercivis.

Contáctanos

Ciencia Ciudadana

Responsable de la Línea de Investigación:

Jesús Clemente

Investigadores:

Fermín Serrano
Francisco Sanz
Eduardo Lostal
Mari Carmen Ibáñez

ibercivis_w

 

RESUMEN

La ciencia ciudadana es una línea de investigación que promueve la participación de la sociedad en la ciencia. El primer proyecto que surgió en este marco y que sigue aún en funcionamiento fue Ibercivis, en el que los ciudadanos podían colaborar con la investigación compartiendo los recursos computacionales en sus tiempos informáticos inactivos.

Entre los principales objetivos de esta prometedora línea de investigación se encuentran: reconocer el potencial de la ciencia ciudadana y el papel de la sociedad, así como la importancia de la participación activa de los ciudadanos en diferentes actividades de carácter científico. En los últimos años, las contribuciones en este sentido han aumentado considerablemente y tienen un gran valor añadido para los investigadores, en general. El Instituto BIFI apoya y promueve esta tarea, permitiendo a los ciudadanos hacer uso de los recursos y de la infraestructura computacional a través de diferentes actividades como el análisis de datos y el desarrollo de experimentos en diversos campos científicos. De esta manera, los voluntarios pueden participar en la investigación y contribuir a la ciencia.

Además de desarrollar nuestras propias herramientas, proyectos científicos ciudadanos y experimentos participativos en colaboración con investigadores y ciudadanos, el grupo ha coordinado: “Socientize”. Este proyecto propuso una serie de recomendaciones útiles para contribuir a la mejora de la estrategia de participación ciudadana o pública en las actividades europeas de investigación científica en el programa Horizonte 2020. Todas estas propuestas están incluidas en el Libro Blanco sobre Ciencia Ciudadana para Europa. Varios servicios de la Comisión (DGs CONNECT, RTD, JRC) utilizan este documento como referencia.

infraestructure

 

PUBLICACIONES RELEVANTES

1.- White Paper on Citizen Science for Europe.

2.- Socientize Consortium 2013. Green Paper on Citizen Science — Citizen Science for Europe: Towards a better society of empowered citizens and enhanced research, November, 2013.

3.- Cell Spotting: Educational and Motivational Outcomes of Cell Biology Citizen Science Project in the Classroom. Cândida G. Silva, António Monteiro, Caroline Manahl, Eduardo Lostal, Teresa Holocher-Ertl, Nazareno Andrade, Francisco Brasileiro, Paulo Gama Mota, Fermín Serrano Sanz, José A. Carrodeguas, Rui M. M. Brito (2015). JCOM – Journal of Science Communication – “Citizen Science” Special Issue (accepted for publication).

4.- SOCIENTIZE participatory experiments, dissemination and networking activities in perspective. Cândida G. Silva, Rui M. M. Brito, António Monteiro, José A. Farias Leal, Adabriand Furtado, Nazareno Andrade, Francisco Brasileiro, Paulo Gama Mota, Caroline Manahl, Teresa Holocher-Ertl, Manuel Pérez Alconchel, Eduardo Lostal Lanza, Carlos Val Gáscon, Francisco Sanz, Fermín Serrano Sanz (2014). Human Computation 1 (2), pp. 119-135.

5.- A Performance/Cost Evaluation for a GPU-Based Drug Discovery Application on Volunteer Computing. D. GUERRERO, Ginés; IMBERNON, Baldomero; PEREZ-SANCHEZ, Horacio; SANZ, Francisco; GARCIA, José M. and CECILIA José M. (2014). BioMed Research International Volume 2014 (2014), Article ID 474219.

6.- Adsorption of probe molecules in pillared interlayered clays: Experiment and computer simulation. A. Gallardo, J.M. Guil, E. Lomba, N.G. Almarza, S.J. Khatib, C. Cabrillo, A. Sanz, y J. Pires (2014). Journal of Chemical Physics 140, 224701.

7.- Heterogeneous networks do not promote cooperation when humans play a Prisoner’s Dilemma. GRACIA LAZÁRO, Carlos, FERRER, Alfredo, RUIZ, Gonzalo, TARANCÓN, Alfonso, CUESTA, José A., SÁNCHEZ, Ángel, MORENO, Yamir (2012). PNAS 109(32), pp. 12922–12926.

8.- Technical Note: An algorithm to calculate the tissue phantom ratio from depth dose in radiosurgery. RAMOS GARCÍA, Luis Isaac, ALMANSA,, Julio F. Medical Phisics, vol. 38, issue 5 (April 2011).

9.- Toward the Discovery of Functional Transthyretin Amyloid Inhibitors: Application of Virtual Screening Methods. SIMõES, Carlos J.V., MUKHERJEE, Trishna, BRITO, Rui M. M., JACKSON, Richard M. (2010). J. Chem. Inf. Model. 50 (10), pp 1806–1820.

10.- Searching for Anti-Amyloid Drugs with the Help of Citizens: the ‘AMILOIDE’ Project on the IBERCIVIS Platform. SIMõES, Carlos J.V., RIVERO, Alejandro, BRITO, R. M. M. (2010). ERCIM News 82, pp. 25-26.

 

PRINCIPALES PROYECTOS DE INVESTIGACIÓN

1.- Ibercivis.

2.- Socientize.

3.- Open Digital Science.

4.- EGI Engage.

5.-Citizen Science Observatory.

6.- Science in your Mobile.

7.- Aqua .

 

Colaboradores

  • José Alberto Carrodeguas
  • Rosa Arias
  • Natividad Miguel
  • Antonio Lafuente
  • Javier Borge-Holthoefer

 

http://www.ibercivis.es

Análisis de Datos, Visualización Avanzada
y Desarrollo de Software

Responsable de la Línea de Investigación:

Gonzalo Ruiz, gruiz@bifi.es

Investigadores:

Alfredo Ferrer, aferrer@bifi.es

 

RESUMEN

El grupo de desarrollo pertenece al área de computación del BIFI, y está formada por dos experimentados ingenieros en informática.

El principal objetivo de este equipo es investigar y dar soporte a la investigación siempre que el desarrollo de software esté involucrado en el proceso. Para conseguirlo, una de las tareas más importantes que se realizan es la participación en proyectos de investigación en los que colaboramos con empresas u otros grupos de investigación. Estas colaboraciones están centradas en temas novedosos como BigData, análisis de Internet, redes sociales, computación distribuida, nuevas tecnologías en educación, etc. Los niveles de colaboración van desde pequeñas contribuciones a empresas locales o grupos de investigación hasta proyectos internacionales dentro del FPVII.

La otra tarea que realizamos en el BIFI es dar soporte a aquéllas investigaciones que se estén llevando a cabo; mejorando y optimizando programas que ya existen, y realizando labors de consultoría sobre las mejores tecnologías y técnicas para el desarrollo.

00

 

PUBLICACIONES RELEVANTES

1.- Analysis of academic productivity based on Complex Networks. September 2015, R. Álvarez, E. Cahué, J. Clemente-Gallardo, A. Ferrer, D. Íñiguez, X. Mellado, A. Rivero, G. Ruiz, F. Sanz, E. Serrano, A. Tarancón, Y. Vergara. Scientometrics, September 2015, Volume 104, Issue 3, pp 651-672.

2.- RRLab: Remote Reality Laboratory to teach mechanics in schools. November 2013, Elisa Cauhé, Alfredo Ferrer, Gonzalo Ruiz, David Íñiguez, Alfonso Tarancón. Chapter 6 of the book “IT Innovative Practices in Secondary Schools: Remote Experiments”, Published by Deusto in 2013. ISBN: 978-84-15772-01-9

3.- Hadoop Cloud SaaS access via WS-PGRADE adaptation. November 2012, Elisa Cauhé, Arturo Giner, Jaime Ibar, Gonzalo Ruiz, Ruben Vallés. 6th IBERIAN GRID INFRASTRUCTURE CONFERENCE PROCEEDINGS Pages: 161-172 Published: 2013

4.- Heterogeneous networks do not promote cooperation when humans play a Prisoner‘s Dilemma. 8th June 2012, Carlos Gracia-Lázaro, Alfredo Ferrer, Gonzalo Ruiz, Alfonso Tarancón, José A. Cuesta, Angel Sánchez, and Yamir Moreno. PNAS, Vol. 109, no. 32.

5.- OptiWeb: An optimization application for steel cut industries ported to the Grid in the framework of PireGrid project. 5th May 2011, “Proceedings of the 5th IBERGRID. ISBN: 978-84-9745-884-9”

6.- Structural and Dynamical Patterns on Online Social Networks: The Spanish May 15th Movement as a Case Study. 30th July 2011, Javier Borge-Holthoefer, Alejandro Rivero, Íñigo García, Elisa Cauhé, Alfredo Ferrer, Darío Ferrer, David Francos, David Íñiguez, María Pilar Pérez, Gonzalo Ruiz, Francisco Sanz, Fermín Serrano, Cristina Viñas, Alfonso Tarancón, Yamir Moreno . PLoS ONE 6(8): e23883, 2011.

 

PRINCIPALES PROYECTOS DE INVESTIGACIÓN

1.- Participamos en el Proyecto “Aragón Open Data”, desarrollando la parte social, que consiste en recopilar información de Internet (redes sociales, prensa, etc.) relacionada con Aragón y presentándola en un format estructurado mediante una API para proveer a los ciudadanos herramientas para hacer sus propias aplicaciones.

2.- Desarrollo de la aplicación llamada Kampal,  que crea y estudia las redes formadas por los miembros de la Universidad de Zaragoza a través de sus investigaciones y proyectos. El énfasis se realiza en las relaciones entre personas y en la dinámica de interacción en lugar de en propiedades individuales.

2

3.- Desarrollo de una plataforma que incluye distintas unidades didácticas centradas en el studio del Sistema solar a través de gestos gracias al dispositivo Microsoft Kinect. Estas unidades fueron desarrolladas en colaboración con el colegio Juan de Lanuza en el context de su cátefra de innovación.

4.- Participación en SEPS, Proyecto INNPACTO que trata de predecir diferentes tipos de riesgos en redes eléctricas, y estudiar su impacto si suceden. En este Proyecto colaboramos con empresas y grupos de investigación como Gas Natural Fenosa, Telvent (actualmente Schneider Electric), la Universidad Carlos III o la Universidad de Lérida.

5.- RRLab (Laboratorio de Realidad Remota): este Proyecto, pensado con fines educatios, consiste en la creación de una plataforma web para la realización de experimentos de física de forma remota con el objetivo de permitir a los alumnos comparar los resultados teóricos con la realidad.

3

6.- Experimento del Dilemma del Prisionero: desarrollamos una plataforma web para la realización de experimentos colectivos para el studio del comportamiento de las personas dependiendo de la estructura de su organización. Esta plataforma ha sido usadad para llevar a cabao dos experimentos diferentes por el momento, y en uno de ellos participaron más de 1300 alumnos en tiempo real. Durante los últimos años hemos hecho diferentes cambios y mejoras en la plataforma para estudiar diferentes parámetros y variables y cómo afectan al comportamiento de la gente.

prisoner_dilemma

7.- Feelicity: fue un proyecto desarrollado con TEDxZaragoza para la geoetiquetación de momentos felices de los usuarios.

feelicity2

8.- Colaboración en el ProyectoIbercivis realizando distintas tareas de desarrollo (visualización, web, customización del cliente de BOINC, etc.)

6

9.- Participación en el Proyecto STEREA “Optimización de Recursos Hídricos y Telegestión de Regadío” que consistió en una de las primeras aplicaciones web desarrolladas para gestionar los sistemas de riego de diferentes campos con el objetivo de optimizar los recursos, reduciendo los costs, e incrementando la productividad.

10.- Participación en el proyecto SCIBUS del FPVII programa marco, cuyo objetivo fue crear un portal de propósito genérico con una serie de herramientas para proveer un acceso sencillo y transparente a infraestructuras de computación, datos, red y servicios en Europa, incluyendo clusters, superordenadores, grids, desktop grids, y clouds académicos y comerciales.

11.- Estudio del movimiento 15M  en Twitter: en este caso, el grupo se encargó de diferentes tareas relacionadas con el studio como visualización, recogida y procesado de datos, etc.

7

12.- Optiweb: este proyecto fue desarrollado a principios de 2011 en colaboración con la empresa Schnell Software, que consistió en la optimización de uno de sus productos de software para que utilizara una infraestructura GRID en su ejecución, mejorando así el rendimiento.

Computación de alto rendimiento (HPC)

Responsable de la Línea de Investigación:

 

Investigadores:

 

 

SUMMARY OF THE RESEARCH LINE

El grupo de Computación de altas prestaciones (HPC) del BIFI se dedica principalmente a las siguientes tareas:

  • Investigación en Computación de Altas Prestaciones. El grupo participa en proyectos de investigación nacionales y europeos que estudian las nuevas tendencias y tecnologías alrededor del mundo de la supercomputación.
  • Mantenimiento y soporte de las infraestructuras de supercomputación del BIFI, alojadas en el Centro de Supercomputación de Aragón (CeSAr). El personal del grupo cuenta con una larga experiencia en la gestión (operación, monitorización, contabilidad…) y soporte a usuarios de grandes sistemas de cálculo para uso científico, así como en el diseño y mantenimiento de CPDs. Actualmente gestionamos el CPD de CeSAr (150m2, que alberga la mayor parte de la infraestructura computacional del Instituto) y 3 supercomputadores masivamente paralelos: CIERZO / CAESARAUGUSTA (III), MEMENTO y TERMINUS.

cpd-hpc_bifi

  • Ofrecer un servicio de cálculo y almacenamiento de calidad para los investigadores del Instituto y otros usuarios externos. Los sistemas de cálculo que gestionamos ofrecen anualmente varios millones de horas de cálculo y cientos de terabytes de almacenamiento, tanto a los investigadores del BIFI y sus colaboradores, como a usuarios externos a través de la Red Española de Supercomputación, el programa Hosted Clusters y otros servicios prestados.
  • Otros servicios: porting, optimización y paralelización de aplicaciones. Como servicio adicional al soporte básico ofrecido en el uso de nuestros supercomputadores, colaboramos con nuestros usuarios para ayudarles a migrar y hacer más eficientes sus códigos en el entorno HPC.
  • Formación y divulgación. El grupo participa activamente en este tipo de actividades, impartiendo cursos y tutoriales, dirigiendo PFCs, tutorando prácticas en empresa, gestionando visitas guiadas a nuestras instalaciones…

 

PUBLICACIONES RELEVANTES

1.- PrionScan: an online database of predicted prion domains in complete proteomes. Angarica, V.E., Angulo, A., Giner, A., Losilla, G., Ventura, S., and Sancho, J. BMC Genomics. 15: 102. 2014.

 

PRINCIPALES PROYECTOS DE INVESTIGACIÓN

1.- Red Española de Supercomputación (RES): la RES consiste en una infraestructura virtual distribuida de supercomputadores situados en distintos lugares, cada uno de los cuales contribuye a la potencia de cálculo total puesta a disposición de usuarios de diferentes grupos de I+D de España o con base en otro país pero con participación de investigadores españoles. Desde su creación en 2007, albergamos y gestionamos CAESARAUGUSTA, el nodo de Aragón en la RES.

2.- ETP4HPC: plataforma tecnológica europea (ETP) en el área de la computación de altas prestaciones (HPC), cuyo principal objetivo es asesorar a la Comisión Europea en la definición de prioridades y programas de investigación en el área HPC.

3.- SCC-Computing: establecimiento de una colaboración estratégica con los expertos en computación de China para desarrollar los próximos sistemas de cálculo más allá de Tianhe-1A (supercomputador más potente del mundo según el ranking top500 en Noviembre de 2010).

Grid y Cloud Computing

Responsable de la Línea de Investigación:

Rubén Vallés

Investigadores:

Rubén Vallés
Carlos Gimeno

1

RESUMEN

Participación en proyectos nacionales e internacionales relacionados con tecnologías grid y cloud, así como en foros de discusión e integración de dichas tecnologías tanto en investigación como en empresas.

Configuración, integración, administración y soporte a usuarios de las infraestructuras Colossus y AraGrid, las cuales forman parte del centro de supercomputación CESAR. Ambas están compuestas por más de 4000 cores de computación y alrededor de 700TB brutos de almacenamiento.

Dichas infraestructuras proveen recursos de computación a un amplio rango de investigadores, que suelen tener requerimientos específicos o incluso complementarios a los que infraestructuras de tipo HPC suelen ofrecer. Además, también sirven como banco de pruebas a empresas y PYMES tanto españolas como europeas, que buscan la adopción de nuevas tecnologías para mejorar sus negocios.

Por todo ello, en los últimos años, hemos centrado tanto nuestras infraestructuras como nuestra investigación en ayudar a las empresas a sacar el máximo partido a nuestras tecnologías y es uno de nuestros principales objetivos ofrecer recursos computacionales bajo el paradigma IaaS (Infraestructura como Servicio), así como colaborar en el desarrollo y la integración de aplicaciones empresariales al cloud.

Además, son infraestructuras integradas en la iniciativa Ibergrid (España y Portugal) junto con EGI (Infraestructura Grid Europea), que es una de las infraestructuras distribuidas más grandes a nivel mundial.

Formación y difusión: Debido a los requisitos especiales que requieren estas infraestructuras Grid y Cloud, ofrecemos soporte en la migración y adaptación de las aplicaciones para su correcto funcionamiento en entornos distribuidos. Nuestro equipo también participa activamente en este tipo de actividades organizando talleres de trabajo, cursos, charlas y meetings con empresas, así como realizando la difusión específica de los proyectos en los que participamos.

2

PRINCIPALES PROYECTOS DE INVESTIGACIÓN

1.- EGI-Engage

2.- Cloudflow

3.- FORTISSIMO

4.- FedCloud EGI (Federated Cloud)

5.- CloudSME (Simulation for manufacturing & engineering)

6.- SCI-BUS (Scientific gateway Based User Support)

7.- AraGrid

8.- EGI-InSPIRE ( European Grid Infrastructure )

9.- PireGrid

10.- int.eu.grid (Interactive European Grid)

Colaboradores

  • Elisa Cauhe
  • David Iñiguez
  • Gonzalo Ruiz
  • Guillermo Losilla
  • Patricia Santos
  • Alfonso Tarancón

 

Contacto

Email:  cloud-admin@bifi.es

Ordenadores Dedicados

Responsable de la Línea de Investigación:

Sergio Pérez Gaviro

Investigadores:

Alfonso Tarancón
David Iñiguez
Andrés Cruz
José Miguel Gil Narvión
Luis Antonio Fernández
Victor Martín Mayor
Juan Jesús Ruíz Lorenzo
Antonio Gordillo

 

RESUMEN

Los ordenadores se han convertido en una herramienta esencial en nuestras vidas cotidianas. Simples actividades rutinarias como la compra de un billete de tren o el envío de un mensaje a alguien requieren el uso de ordenadores convencionales que, por supuesto, también juegan un papel muy importante en tareas más complejas, como transferencias bancarias o gestión de redes eléctricas, por ejemplo. Por otra parte, estos equipos también han hecho posibles muchos avances en la ciencia y en la actualidad están claramente presente en un amplio conjunto de áreas científicas. De hecho, muchas instituciones de todo el mundo dedican una enorme cantidad de dinero y esfuerzo humano para construir clusters de computadores (véase, por ejemplo, www.top500.org/lists/ para una lista detallada de los superordenadores más potentes del mundo).

Para algunos problemas específicos, sin embargo, los ordenadores convencionales no son suficientes. Se necesitarían miles de años para realizar algunos cálculos particulares. Así, en el marco de la supercomputación se encuentran los ordenadores dedicados (o de propósito especial), que son desarrollados y diseñados para realizar cálculos intensivos de carácter específico.
El desarrollo de este tipo de ordenadores es precisamente el objetivo de esta línea de investigación. Así, gracias a una exitosa colaboración científica entre los investigadores del BIFI (Universidad de Zaragoza), Universidad Complutense de Madrid, Universidad de Extremadura, Università degli Studi di Roma “La Sapienza” y Università di Ferrara, en 2008 nació el superordenador Janus, sistema informático basado en chips de lógica programable (FPGAs), modular, masivamente paralelo y reconfigurable para la computación de alto rendimiento científico. Su arquitectura reconfigurable permite a Janus proporcionar capacidad de cálculo para diferentes aplicaciones científicas en Física, en Química o en Biología. La colaboración Janus ha centrado sus esfuerzos en el estudio y simulación de vidrios de espín, paradigma de los sistemas complejos.

Janus está compuesto por 16 placas base. En cada una de ellas, se tiene una cuadrícula bidimensional de 4×4 procesadores basados en FPGA y dispuestos con condiciones de contorno periódicas. Cada uno de estos procesadores se denomina SP (Simulation Processor) y lleva a cabo las simulaciones. Una FPGA adicional actúa como una pasarela (IOP – Input Output Processor) y está a cargo de todas las conexiones internas y las comunicaciones externas. Todos los módulos FPGA son Xilinx Virtex4-LX200.

Janus II es la nueva generación ubicada en el BIFI desde 2013. Siguiendo la misma filosofía que en Janus, Janus II está compuesto nuevamente por 16 placas base. En cada placa, 16 procesadores FPGA de la última generación disponible en su momento (Xilinx Virtex 7-XC7VX485T) se encuentran vinculados y con condiciones de contorno periódicas. Se llaman SP (Simulation Processor), ya que están a cargo de las simulaciones. Todos los de SP de cada placa están controlados por un ordenador insertado en la propia tarjeta que llamamos CP (Control Processor) que ejecuta el sistema operativo Linux. Estos CP gestionan todos los procesadores FPGA para las simulaciones, el control y seguimiento de su estado. El CP utiliza un sistema disponible en el mercado, Computer-on-Module (COM), basado en un procesador Intel Core i7; se conecta a través de la interfaz PCIe a un procesador de entrada-salida (IOP) construido con otra FPGA. La IOP maneja todas las conexiones a los SP, controlando el procedimiento de configuración y su funcionamiento, y el seguimiento de su estado. La arquitectura Janus II incluye también mejoras en las comunicaciones, permitiendo la interconexión entre todas las placas base, y también amplía 100 veces la memoria disponible.

Janus II fue construido gracias a fondos FEDER: Ministerio de Economía y Competitividad (Gobierno de España), Gobierno de Aragón, Unión Europea.

Más información en http://www.janus-computer.com

PUBLICACIONES RELEVANTES

1.- Janus Collaboration: M. Baity-Jesi, R. A. Baños, A. Cruz, L. A. Fernandez, J. M. Gil-Narvion, A. Gordillo-Guerrero, D. Iñiguez, A. Maiorano, F. Mantovani, E. Marinari, V. Martin-Mayor, J. Monforte-Garcia, A. Muñoz Sudupe, D. Navarro, G. Parisi, S. Perez-Gaviro, M. Pivanti, F. Ricci-Tersenghi, J. J. Ruiz-Lorenzo, S. F. Schifano, B. Seoane, A. Tarancon, R. Tripiccione, D. Yllanes. “Janus II: a new generation application-driven computer for spin-system simulations”. arXiv:1310.1032. Computer Physics Communications 185, 550-559 (2014)

2.- Janus Collaboration: R. A. Banos, A. Cruz, L. A. Fernandez, J. M. Gil-Narvion, A. Gordillo-Guerrero, M. Guidetti, D. Iniguez , A. Maiorano, F. Mantovani, E. Marinari , V. Martin-Mayor, J. Monforte-Garcia, A. Munoz Sudupe, D. Navarro, G. Parisi, M. Pivanti, S. Perez- Gaviro, F. Ricci-Tersenghi, J. J. Ruiz-Lorenzo, S. F. Schifano, B. Seoane, A. Tarancon, R. Tripiccione, D. Yllanes. “An FPGA-based supercomputer for statistical physics: the ‘weird’ case of Janus”. Book Chapter in: “High-Performance Computing using FPGAs”, pp. 481-506 (2013), University of Glasgow, Publisher: Springer.

3.- Janus Collaboration: M. Baity-Jesi, R. A. Banos, A. Cruz, L. A. Fernandez, J. M. Gil-Narvion, A. Gordillo-Guerrero, M. Guidetti, D. Iniguez, A. Maiorano, F. Mantovani, E. Marinari, V. Martin-Mayor, J. Monforte-Garcia, A. Munoz Sudupe, D. Navarro, G. Parisi, M. Pivanti, Perez-Gaviro, F. Ricci-Tersenghi, J. J. Ruiz-Lorenzo, S. F. Schifano, B. Seoane, A. Tarancon, P. Tellez, R. Tripiccione, D. Yllanes. “Reconfigurable computing for Monte Carlo simulations: results and prospects of the Janus project”. arXiv:1204.4134, The European Physical Journal Special Topics 210, 33 (2012).

4.- Janus Collaboration: F. Belletti, M. Cotallo, A. Cruz, L. A. Fernandez, A. Gordillo, A. Maiorano, F. Mantovani, E. Marinari, V. Martin-Mayor, A. Muñoz-Sudupe, D. Navarro, S. Perez-Gaviro, M. Rossi, J. J. Ruiz-Lorenzo, S. F. Schifano, D. Sciretti, A. Tarancon, R. Tripiccione, J. L. Velasco. “JANUS: an FPGA-based System for High Performance Scientific Computing”. arXiv:0710.3535v2, Computing in Science & Engineering 11-1, 48-58 (2009).

5.- Janus Collaboration: F. Belletti, M. Cotallo, A. Cruz, L. A. Fernandez, A. Gordillo, A. Maiorano, F. Mantovani, E. Marinari, V. Martin-Mayor, A. Muñoz-Sudupe, D. Navarro, S. Perez-Gaviro, J. J. Ruiz-Lorenzo, S. F. Schifano, D. Sciretti, A. Tarancon, R. Tripiccione, J. L. Velasco. “Simulating spin systems on IANUS, an FPGA-based computer.” arXiv:0704.3573, Computer Physics Communications 178 (3), p.208-216, (2008).

6.- Janus Collaboration: F. Belletti, I. Campos, A. Cruz, L. A. Fernandez, S. Jimenez, A. Maiorano, F. Mantovani, E. Marinari, V. Martin- Mayor, D. Navarro, A. Muñoz-Sudupe, S. Perez Gaviro, G. Poli, J. J. Ruiz-Lorenzo, F. Schifano, D. Sciretti, A. Tarancon, P. Tellez, R. Tripiccione, J. L. Velasco. “Ianus: an Adaptative FPGA Computer.” arXiv:0507270, Computing in Science & Engineering, January/February 2006, Volume 8, N 1, p. 41.

7.- Janus Collaboration: M. Baity-Jesi, R.A. Baños, A. Cruz, L.A. Fernandez, J.M. Gil-Narvion, A. Gordillo-Guerrero, M. Guidetti, D. Iñiguez, A. Maiorano, F. Mantovani, E. Marinari, V. Martin-Mayor, J. Monforte-Garcia, A. Muñoz-Sudupe, D. Navarro, G. Parisi, S. Perez-Gaviro, M. Pivanti, F. Ricci-Tersenghi, J. Ruiz-Lorenzo, S.F. Schifano, B. Seoane, A. Tarancon, P. Tellez, R. Tripiccione , D. Yllanes. “Spin glass simulations on the Janus architecture: A desperate quest for strong scaling”. Parallel Processing Workshops, Euro-Par 2012, LNCS Volume 7640 LNCS, 2013, Pages 528-537

8.- Janus Collaboration: M. Baity-Jesi, R. A. Banos, A. Cruz, L. A. Fernandez, J. M. Gil-Narvion, A. Gordillo-Guerrero, M. Guidetti, D. Iniguez, Maiorano, F. Mantovani, E. Marinari, V. Martin-Mayor, J. Monforte-Garcia, A. Munoz Sudupe, D. Navarro, G. Parisi, M. Pivanti, S. Perez- Gaviro, F. Ricci-Tersenghi, J. J. Ruiz-Lorenzo, S. F. Schifano, B. Seoane, A. Tarancon, P. Tellez, R. Tripiccione, D. Yllanes. “Janus2: an FPGA-based Supercomputer for Spin Glass Simulations”. ICS12 Workshop proceedings (http://hpc.pnl.gov/conf/ICS2012/)

9.- Janus Collaboration: Belletti, F; Cruz, A; Fernandez, LA; Gordillo-Guerrero, A; Guidetti, M; Maiorano, A; Mantovani, F; Marinari, E; Martin- Mayor, V; Sudupe, AM; Navarro, D; Parisi, G; Perez-Gaviro, S; Ruiz-Lorenzo, JJ; Schifano, SF; Sciretti, D; Tarancon, A; Tripiccione, R; Yllanes,D. “Nonequilibrium spin glass dynamics with Janus”. AIP Conference Proceedings 1091 (2009) 228-230.

10.- Janus Collaboration: Belletti, F; Cotallo, M; Cruz, A; Fernandez, LA; Gordillo-Guerrero, A; Guidetti, M; Maiorano, A; Mantovani, F; Marinari, E; Martin-Mayor, V; Sudupe, AM; Navarro, D; Parisi, G; Perez-Gaviro, S; Rossi, M; Ruiz-Lorenzo, JJ; Saenz-Lorenzo, JF; Schifano, SF; Sciretti, D; Tarancon, A; Tripiccione, R; Velasco, JL; Yllanes, D; Zanier, G. “Monte Carlo simulations for statistical physics: Janus”. Proceedings Paper: Nuovo Cimento B 123 (2008) 972-974

11.- Janus Collaboration: F. Belletti, M. Cotallo, A. Cruz, L. A. Fernández, A. Gordillo, A. Maiorano, F. Mantovani, E. Marinari, V. Martín-Mayor, A. Muñoz-Sudupe, D. Navarro, S. Perez-Gaviro, M. Rossi, J. J. Ruiz-Lorenzo, S. F. Schifano, D. Sciretti, A. Tarancón, R. Tripiccione, J. L. Velasco. “IANUS: Scientific Computing on an FPGA-Based Architecture”. Parallel Computing: Architectures, Algorithms and Applications, Proceedings of the International Conference ParCo 2007 (C. Bishof, M. Buecker, P. Gibbon, G. Joubert, T. Lippert, B. Mohr, F. Peters editors), Publication Series of the John Von Neumann Institute for Computing, 38 (2007) 553-560. Reprinted in: Advances in Parallel Computing, 15 (2008), 553-560.

Contact Us

We're not around right now. But you can send us an email and we'll get back to you, asap.

¿No se puede leer? Cambiar texto.

Start typing and press Enter to search