górne tło

Światowy Grid komputerowy LHC

Eksperymenty LHC, ATLAS, CMS i LHCb poszukują bardzo rzadkich zjawisk, co zmusza do wyselekcjonowania ich z milionów zderzeń

Z kolei eksperyment ALICE bada oddziaływania w których będzie się pojawiać równocześnie dziesiątki tysięcy cząstek. Analiza wstępna, wykonywana przy pomocy specjalnej elektroniki i programowalnych procesorów, odrzuca wiele "trywialnych" przypadków, tym niemniej do rejestracji i dalszej, pełnej analizy pozostają ich miliony. Ilość informacji gromadzona rocznie przez każdy z eksperymentów sięga kilku PetaByteów, do rejestracji których potrzeba dużych zasobów dyskowych i tysięcy procesorów. Eksperymenty są międzynarodowe - np. CMS i ATLAS były budowane przez ok. 300 laboratoriów - a wiec każdy z uczestników chce mieć dostęp do danych i udział w odkrywaniu nowych zjawisk.

Rozwój sieci komputerowych, który nastąpił z końcem XX wieku umożliwia zintegrowanie rozproszonych zasobów obliczeniowych i gromadzenia danych w jeden system, zarządzany specjalnym oprogramowaniem. CERN, wraz ze współpracującymi instytucjami i w oparciu o doświadczenia kilku europejskich i amerykańskich projektów gridowych, przystąpił do budowy pilotowego projektu LHC Computing Grid w r. 2003. W ostatnich latach, we współpracy z projektami EGEE, Open Science Grid i Nordu Grid stworzono system który spełnią wymagania eksperymentów LHC: setki rozproszonych centrów komputerowych połączone są w jeden system, w którym można rejestrować dane z szybkością ok. 1.5 GB/s a 50 tysięcy procesorów może stabilnie wykonywać dziennie setki tysięcy zadań. W skład tego systemu wchodzą i polskie centra komputerowe Krakowa (ACK Cyfronet AGH), Poznania (PCSS) i Warszawy (ICM) - jesteśmy znaczącym i pewnym partnerem.

Prezentacja

Michał Turała, IFJ PAN i ACK Cyfronet AGH
15 stycznia 2009

dolne tlo