Title: czyli o tym jak projekt powstawal,
1story
- czyli o tym jak projekt powstawal,
- jak byl realizowany i co z niego
- pozostalo...
Michal Turala IFJ PAN i ACK Cyfronet AGH
2Prehistoria
- Rok 2000
- Maly klaster PC z systemem GLOBUS w KI AGH
- Brak infrastruktury dla analizy danych z duzych
eksperymentów FWE - Spotkania jesienia 2000
- w Warszawie, w pazdzierniku ? POLGRID ??? .
- w Krakowie, w listopadzie, Polish Workshop on
LHC Computing z udzialem IFJ, ICM, Cyfronetu,
PCSS oraz pracowników CERN - prezentacje J. Kitowskiego i J. Nabrzyskiego,
dotyczace ACK Cyfronet, PCSS i projektu PIONIER - prezentacje F. Carminatiego, B. Segala i W. von
Ruedena, dotyczace DataGrid i komputingu dla
eksperymentów LHC - Mysl o dolaczeniu do EU DataGrid, jako projekt
- stowarzyszony
- Robocza nazwa Polish DataGrid.
3Polish DataGrid
- Spotkania robocze
- ICM Warszawa, 27.10.2000
- IFJ Kraków, 24.11.2000
- ICM Warszawa, 18.12.2000
- PCSS Poznan, 3.01.2001
- IFJ Kraków, 15.01.2001
- CERN, 24-26.01.2001
- ICM/IPJ Warszawa, 2.02.2001
4Polish DataGrid
- Konsorcjum
-
- 1. ACK CYFRONET AGH Kraków
- 2. Interdyscyplinarne Centrum Modelowania
Warszawa - 3. Poznanskie Centrum Superkomputerowo-Sieciowe
- Poznan - 4. Instytut Fizyki Jadrowej - Kraków
- 5. Wydzial Fizyki i Techniki Jadrowej AGH
Kraków - 6. Instytut Fizyki Doswiadczalnej UW -
Warszawa - 7. Instytut Problemów Jadrowych UW Warszawa
- Koordynacja
- M. Bubak (Cyfronet/ KI AGH Kraków)
- J. Nabrzyski (PCSS Poznan)
- M. Turala (IFJ Kraków)
- W. Wislicki (ICM/ IFD UW Warszawa)
5Polish DataGrid
- ....Consortium whose goal is the development of
the Proposal of the Project called Polish
DataGrid, affiliated to the EU project
DataGrid..., - ....Consortium will develop an organizational,
hardware and middleware infrastructure for
distributed scientific computing and data storage
in Poland, and will make this infrastructure
available for Polish and international research
groups taking part in the future high-energy
physics experiments.... - ....The Project is planned for the years
2001-2003 with possible extension for further
stages, when the next generation of experiments
becomes operational... - The principal objectives of the Project are to
- - .... build a distributed computing cluster
of PC/workstations with cumulative performance
adequate to many scientific applications,
complemented by a dedicated distributed storage
system, - ........
- - - create and develop a domain-oriented
physics DataGrid portal as an entry point for
computing on the cluster, - - - use the research networking
infrastructure available in Poland to establish
parallel links between cluster nodes with a high
throughput network technology, - - - connect this infrastructure to the CERN
DataGrid infrastructure and test the system
performance....
6Polish DataGrid
- Signatures of the Representatives of the Polish
DataGrid Participants - For the Academic Computer Center, CYFRONET, AGH,
Kraków Prof. Dr Marian Noga - Director
-
- For the Henryk Niewodniczanski Institute of
Nuclear Physics, Kraków Prof. Dr Andrzej
Budzanowski - Director
-
- For the Faculty of Physics and Nuclear Techniques
of the University of Mining and Metallurgy,
Kraków - Prof. Dr Kazimierz Jelen
-
- For the Institute of Experimental Physics, Warsaw
University Prof. Dr Jan Krolikowski -
- For the Interdisciplinary Centre for Mathematical
and Computational Modelling, Warsaw University - Prof. Dr Bogdan Lesyng
- v-ce Director
-
- For Soltan Institute of Nuclear Studies, High
Energy Physics Dept. Prof. Dr Helena Bialkowska
7Polish DataGrid
- Dyskusje w CERN (24-26.01.2001)
-
- Dyskusje z F. Gagliardi (DataGrid Project
Manager) - z udzialem
- M. Bubak, R. Gokieli, J. Nabrzyski, K. Nawrocki,
M. Turala -
- - Projekt DataGrid zatwierdzony zostal 29
grudnia 2000 -
- - Mozliwosc stworzenia projektu stowarzyszonego
(cross project) z udzialem Grecji, Hiszpanii,
Polski, Wloch w tej sprawie odbyly sie osobne
spotkania (szczególy w prezentacjach MB i KN) -
- - Mozliwosc dolaczenia z wykorzystaniem Special
requirements for proposals for Action line
IST-2001-VIII 1.6. EXTENTION OF EXISTING IST
CONTRACTS WITH NAS PARTNERS termin skladania
aplikacji 17.04.2001 -
- - Dolaczenie do projektu CERN DataGrid musi byc
zgodne z jego obecna struktura (workpackages)
moga to byc nowe zadania badz dolaczenie do
istniejacych (zadania realizowane przez CERN sa
niedoinwestowane) -
- - Projekt stowarzyszony z CERN DataGrid (cross
project) tematycznie nie moze sie pokrywac z
macierzystym -
- Rozmiary projektu (-ów), sprawy formalne,
terminy, pilne potrzeby, itd. (szczególy w
dalszej czesci spotkania - MT)
8Polish DataGrid
- Dyskusje w CERN (24-26.01.2001)
-
- Spotkanie z Dyrektorem CERN, H.F. Hoffmannem
- (CERN Director for Technology Transfer and for
Scientific Computing) - z udzialem M. Delfino (IT Division Leader), L.
Robertson (IT Deputy Division Leader), F.
Gagliardi (DataGrid Project Manager), M. Bubak,
R. Gokieli, J. Nabrzyski, K. Nawrocki, M. Turala - - Raport dotyczacy potrzeb komputerowych
eksperymentów LHC i propozycji ich rozwiazania
jest w fazie koncowej bedzie rozeslany krajom
czlonkowskim z koncem lutego - - Intensywny rozwój programu GRID w Europie
- - specjalne finansowaniu w UK (PPARC 15 M
funtów), - - specjalne finansowanie we Wloszech (INFN
45 Mld lirów), - - sytuacja w Niemczech niejasna (Tier 1 w
Karlshrue?) - w najblizszych tygodniach sprawy
powinny sie wyjasnic - - Uznanie dla Konsorcjum Polish DataGrid i
przygotowanych propozycji - - Dolaczenie do projektu CERN DataGrid
- - Rozszerzenie projektu,
- - Projekt stowarzyszony,
9Polish DataGrid
- Dyskusje w CERN (24-26.01.2001)
- Spotkania
- L. Robertson (IT Deputy Division Leader), W.von
Rueden (IT PDP Group leader), B. Segal (CERN
DataGrid WP8 Manager) - z udzialem M. Bubak, R. Gokieli, J. Nabrzyski,
K. Nawrocki, M. Turala - - Uznanie dla przygotowanej oferty technicznej
Polish DataGrid - - M. Bubak Co. (...)
- - J. Nabrzyski (DataGrid Portal..)
- - Specjalne zainteresowanie
- - Infrastruktura (siec, test-beds),
- - Narzedzia dla High Throughput GRID Computing,
- - Zarzadzanie danymi,
- - Mobilne srodowisko pracy,
- - Portal DataGrid dla fizyków,
- - Zabezpieczenia GRIDu.
- - itd.
- - Sugestie odnosnie tematyki dla projektu
stowarzyszonego z CERN DataGrid (cross project)
10CrossGrid
- Call Conference
- On the preparation of Cross Action Programme Grid
project, 21 Feb 2001 - Participants
- Austria, Vienna (P. Brezany) CERN (F. Gagliardi,
T. Kokkinias) Germany, Munich (R.
Wismueller),Karlsruhe (H. Marten), Heidelberg (A.
Putzer) Italy, Datamat (U.P. Grandinetti, F.
Rossi) Poland, Krakow (M. Bubak, M. Turala),
Poznan (J. Nabrzyski), Warsaw (W. Wislicki)
Spain, Santander (J. Marco) UK, British Telecom
(P. Plaszczak) - It was agreed
- EU provides new opportunities within the Cross
Programme Action (CPA9) the deadline for
proposals is 25 of April 2001. Number of
institutions expressed their interest in the
preparation of a common proposal here it is
tentatively called "Cross Grid". - suggestions were made how to organize the work
in the coming weeks, to be ready with the
pre-proposal for the Amsterdam GG/DG Forum 3-9
March - Dr M. Bubak, of Krakow Academic Computing Center
CYFRONET has agreed to act as a chief editor of
the pre-proposal
11CPA9 Cross Grid projectAmsterdam, 7 March 2001
- Agenda
- Introduction
- Status and perspectives
- Participants
- Presentation and formal commitments
- Austria, CERN, Cyprus, Germany, The Netherlands,
Greece, Italy, Poland, Portugal, Spain, UK - Industrial participation
- Project - Application driven
- Contributions and workpackages (M. Bubak)
- Partners
- Workplan
- Deadline 25 April 2001
- A meeting with Kyriakos Baxevanidis
- Dinner
UK zrezygnowala dolaczyla Slowacja
12Projekt CrossGrid
- Projekt przygotowany i zlozony w terminie
- Abstrakt The Cross Grid project will develop,
implement and exploit new Grid components for
interactive compute and data intensive
applications like simulation and visualisation
for surgical procedures, flooding crisis team
decision support systems, distributed data
analysis in high-energy physics, air pollution
combined with weather forecasting. The elaborated
methodology, generic application architecture,
programming environment, and new Grid services
will be validated and tested thoroughly on the
CrossGrid testbed, with an emphasis on a user
friendly environment. The work will be done in
close collaboration with the Grid Forum and the
DataGrid project to profit from their results and
experience, and to obtain full interoperability.
This will result in the further extension of the
Grid across eleven European countries. - Uczestnicy pierwotnie bylo 22 partnerów (w
trakcie negocjacji odpadl UAM, jako iz ich
przedstawiciel byl .nieobecny) pozostalo 21 - Koszt calosc ok. 9 MEuro dotacja UE ok. 6.5
MEuro - Rezultat konkursu projekt uzyskal ocene 3.3 (w
skali 5 najw. ocena byla 4.1) i zostal
zatwierdzony do realizacji poczynajac od 1
stycznia 2002 (de facto od 1 marca 2002) koszt
musial zostac zredukowany o ok. 20 (tj, do ok. 5
MEuro)
13Projekt CrossGrid
- Realizacja
- Prace nad rozwojem oprogramowania i testbedów
- Aplikacje glównie poza Polska w Krakowie -
medyczna i fizyka WE, w Warszawie
przewidywania pogody - Rozwój oprogramowania w Krakowie Architektura,
Performance Evaluation i Grid monitoring, Data
Access - Miedzynarodowe Testbeds (w Cyfronecie poczatkowo
kilka maszyn, pod koniec projektu 40
dwuprocesorowych wezlów Rack Saver) - Kierowanie zlozonym projektem
- Zarzadzanie i administracja - Steering Group i CG
office - 65 spotkan CG SG w okresie listopad 2001
kwiecien 2005 - zebranie i wyslanie ok. 80 deliverables
(planowano ok. 100!) - zebranie i sprawdzenie corocznych sprawozdan
finansowych - przygotowanie Consortium Agreement i Project
Amendment - dokumentacja i deseminacja informacji
- Koordynacja techniczna Architecture Team i
Technical Board - udzial w przygotowaniu i sprawdzeniu deliverables
- przygotowywanie programów konferencji projektu
- opracowanie i demonstracje tutoriali
- przygotowywanie materialów popularyzatorskich
14Projekt CrossGrid
- Konferencje oraz spotkania robocze majace na celu
testy i integracje oprogramowania - Kraków, marzec 2002, konferencja kick-off
CrossGrid - Linz, wrzesien 2002, konferencja CrossGrid
- Santiago de Compostela, luty 2003, integracja,
konf. CrossGrid i Across Grids - Poznan, lipiec 2003, integracja oprogramowania
- Nicosia, styczen 2004, integracja, konferencje
CrossGrid i Across Grids - Dagstuhl, lipiec 2004, integracja oprogramowania
- Lisbona, pazdziernik 2004, integracja
oprogramowania - Amsterdam, luty 2005, spotkanie CrossGrid i
Europejska Konferencja Gridowa - Przeglady postepu prac
- Bruksela, 12 marca 2003
- Bruksela 18 czerwca 2003 (poprawka)
- Karlsruhe, 16 marca 2004
- Bruksela 14-16 czerwca 2005 (poprawka dot.
eksploatacji), - Dagstuhl, 29 lipca 2004 (poprawka dot.
integracji) - Amsterdam, 16-17 luty 2005
- Kontakty z Bruksela
15Projekt CrossGrid
- Konferencja Kick-off Kraków, 17-20 marca 2002
16Projekt CrossGrid
- Konferencja CG, Santiago de Compostela, 10-12
luty 2003, polaczona z warsztatami integracji i
1-sza konferencja Across Grids
17Projekt CrossGrid
- Konferencja CG, Nicosia, 26-28 stycznia 2004,
polaczona z warsztatami integracji i 2-ga
konferencja Across Grids
18Projekt CrossGrid
- Konferencja CG, Amsterdam, 13-16 luty 2005,
polaczona z 1-sza Europejska Konferencja Gridowa
i koncowym sprawozdaniem
19CrossGrid project targets
Prezentacja H. Kornmayera na konferencji EGEE,
Ateny, maj 2005
- Enable four new societally important applications
on the Grid - Bio medical application (Blood flow simulation)
- Flood crisis team support
- Neural Net training for HEP
- Meterological modelling for air pollution
- Enable interactive applications on the Grid
- Human in the Loop
- Parallel Applications using MPI
- Setup of a European Grid including new member
states
20CrossGrid - partners
Prezentacja H. Kornmayera na konferencji EGEE,
Ateny, maj 2005
- 21 partners
- 5 Workpackages
- New Grid applications
- Grid Development tools
- New Grid Middleware
- International testbed
- Management
- Testbed
- 16 Locations
- 9 countries
- gt 200 CPU
- 4 TB Storage
21CrossGrid - architecture
Tools
- over 200 CPUs
- 4 TB of storage
Prezentacja H. Kornmayera na konferencji EGEE,
Ateny, maj 2005
22CrossGrid - Conclusions
Prezentacja H. Kornmayera na konferencji EGEE,
Ateny, maj 2005
- CrossGrid has successfully reached its targets
- Interactivity, Integration, Innovations
- Outcome of the review on 16th/17th February
- ..Successfully completed..
- ..technically an excellent job..
- New kind of applications on the Grid
- Support for MPI on the Grid
- New approach for a user-friendly access to the
Grid - Grid becomes invisible
CrossGrid flood demo won the first prize for the
best Grid application!
- Demos this afternoon
- Interactive Applications - Migrating Desktop -
GridBench - Flood crisis support team - OCM-G (MPI
application monitoring)
CrossGrid testbed is available for new
applications CrossGrid testbed can be a valueable
Grid inside EGEE
23Strong Polish Participation in FP5 Grid Research
Projects
CROSSGRID Testbed in Action
- 2 Polish-led Projects (out of 12)
- CrossGrid
- CYFRONET Cracow
- ICM Warsaw
- PSNC Poznan
- INP Cracow
- INS Warsaw
- GridLab
- PSNC Poznan
- Significant share of funding to Poland versus
EU25 - FP5 IST Grid Research Funding 9.96
- FP5 wider IST Grid Project Funding 5
- GDP 3.8
- Population 8.8
z wystapienia M. Lemke na CGW04
24Crossrid - podsumowanie
- Projekt CrossGrid przyniósl tez wiele waznych
posrednich rezultatów
- Nowa tematyke naukowo-badawcza w II AGH
- Nowa technologie informatyczna w ACK Cyfronet
AGH, - wazna dla wielu zastosowan
- Nowa tematyke dydaktyczna (wyklady, seminaria,
cwiczenia - praktyczne, prace mgr i doktorskie)
- Kilkadziesiat osób zapoznalo sie z technologia
gridowa
- Zwiekszyl swiatowe uznanie dla polskich
informatyków
- Poinformowal swiat lepiej o stanie polskiej
infrastruktury informatycznej (sieci, centra
obliczeniowe)
- Pomógl w ustanowieniu nowej serii konferencji/
warsztatów - miedzynarodowych (seria CGW i inne)
- Ustanowil kontakty miedzynarodowe, które owocuja
nowymi - projektami (EGEE, Kwf-Grid, CoreGrid, BalticGrid
i inne)
- Stworzyl warunki dla prac badawczych w
dziedzinie fizyki - (LCG), chemii, biologii, medycynie, inzynierii.
25Crossrid - podsumowanie
- Projekt CrossGrid przyniósl tez wiele waznych
posrednich rezultatów
- Nowa tematyke naukowo-badawcza w II AGH
- Nowa technologie informatyczna w ACK Cyfronet
AGH, wazna dla - wielu zastosowan
- Nowa tematyke dydaktyczna (wyklady, seminaria,
cwiczenia - praktyczne, prace mgr i doktorskie)
- Kilkadziesiat osób zapoznalo sie z technologia
gridowa - Zwiekszyl swiatowe uznanie dla polskich
informatyków - Poinformowal lepiej swiat o stanie polskiej
infrastruktury - informatycznej (sieci, centra obliczeniowe)
- Pomógl w ustanowieniu nowej serii konferencji/
warsztatów - miedzynarodowych (seria CGW i inne)
- Ustanowil kontakty miedzynarodowe, które owocuja
nowymi
26EGEE (Enabling Grid for e-Science in Europe)
- 70 leading institutions in 27 countries,
federated in regional Grids - (z Polski ACK Cyfronet, ICM i PCSS)
- 32 M Euros EU funding for first2 years starting
1st April 2004 - (ale tylko 0.5 M Euro dla Polski)
- Leveraging national and regional grid activities
- Promoting scientific partnership outside EU
Austria, Czechy, Polska, Slowacja, Slowenia,
Wegry
27EGEE
- Goal of EGEE develop a service grid
infrastructure in Europe which is available to
scientists 24 hours-a-day - The project concentrates on
- building a consistent, robust and secure Grid
network that will attract additional computing
resources to continuously improve and maintain
the middleware in order to deliver a reliable
service to users - attracting new users from industry as well as
science and ensure they receive the high standard
of training and support they need - Challenges
- Integrate international resources
- Interoperability (Grid3/OSG, NorduGrid, )
- Contribution to standardization
28EGEE Activities
- 48 service activities (Grid Operations, Support
and Management, Network Resource Provision) - 24 middleware re-engineering (Quality
Assurance, Security, Network Services
Development) - 28 networking (Management, Dissemination and
Outreach, User Training and Education,
Application Identification and Support, Policy
and International Cooperation)
Emphasis in EGEE is on operating a
production grid and supporting the end-users
29Future EGEE Middleware - gLite
- Intended to replace present middleware with
production quality services - Developed from existing components
- Aims to address present shortcomings and advanced
needs from applications - Prototyping short development cycles for fast
user feedback - Initial web-services based prototypes being tested
gLite-2
gLite-1
LCG-2
LCG-1
Globus 2 based
Web services based
Application requirements http//egee-na4.ct.infn.i
t/requirements/
30EGEE Operations OMC and CIC
- Operation Management Centres
- CERN, RAL, Bologna, Taipei, coordinate operations
and management - coordinate with other grid projects
- Core Infrastructure Centres
- behave as single organisations
- operate core services (VO specific and general
Grid services) - develop new management tools
- provide support to the Regional Operations
Centres
31Grid Operations
- The grid is flat, but
- Hierarchy of responsibility
- Essential to scale the operation
- CICs act as a single Operations Centre
- Operational oversight (grid operator)
responsibility - rotates weekly between CICs
- Report problems to ROC/RC
- ROC is responsible for ensuring problem is
resolved - ROC oversees regional RCs
- ROCs responsible for organising the operations in
a region - Coordinate deployment of middleware, etc
- CERN coordinates sites not associated with a ROC
CEC ROC ACK Cyfronet ICM PCSS
RC Resource Centre
32Computing Resources Dec. 2004
Were already exceeding deployment
expectations!!!
33Deployment of applications
- Pilot applications
- High Energy Physics
- Biomed applications
- Generic applications Deployment under way
- Computational Chemistry
- Earth science research
- EGEODE first industrial application
- Astrophysics
- With interest from
- Hydrology
- Seismology
- Grid search engines
- Stock market simulators
- Digital video etc.
34Polska infrastruktura EGEE (LCG) Tier2 w ACK
Cyfronet AGH, Kraków
Procesory 4 x dual PIII 1GHz, 512MB RAM,
40GB HDD 68 x dual Xeon 2.4 - 2.8GHz, 2GB
RAM, 40-120 GB HDD 20 x dual
Itanium2 1.3GHz, 2GB RAM, 2x36GB
SCSI HDD Pamieci 3.6 TB Storage (Disk Array)
and 15 TB from disk storage HP XP12000
Siec 10 Gbps MAN and GEANT connection Oprogram
owanie LCG-2.4.0 (Globus 2.4.3) Uzytkownicy
ATLAS, LHCB, ALICE równiez BELLE, ZEUS,
teoretycy Plany zakup 120 dual Xeon 3.6 GHz
dodatkowych wezlów (ok. 50 dla
LCG) Planowany maly klaster (Tier3) w IFJ PAN
LUBLIN
Rozwój glównie dzieki udzialowi w projektach EU,
CrossGrid i EGEE, oraz SPUB MNiI
35Polska infrastruktura EGEE (LCG) Tier2 w ICM UW,
Warszawa
Pierwszy maly klaster LCG Processors
AMD dual AthlonMP 2400 4 x dual AthlonMP
2000 Intel 2 x dual Pentium III 1 GHz
Storage 400 GB of disk storage
Oprogramowanie LCG2.4.0 (Globus 2.4.3)
Uzytkownicy glównie CMS (równiez LHCb) Nowa
instalacja - AMD Dual Opteron 250 2.4 GHz
90 wezlów - 7.2 TB of pamieci dyskowej
- Duza czesc ( 50) dostepna dla LCG -
Uzytkownicy CMS, LHCb, COMPASS,
astrofizyka Maly klaster (Tier3) w IPJ i na PW
LUBLIN
Rozwój glównie dzieki udzialowi w projektach EU,
CrossGrid i EGEE, oraz SPUB MNiI
36Polska infrastruktura EGEE (LCG) Klaster EGEE
(Tier2) w PCSS, Poznan
Zabezpiecza polaczenia sieciowe 10 Gbps MAN
i GEANT Polski uczestnik EGEE (LCG) Hardware
50 podwójnych wezlów IA64 47 ia64 WNs,
oprogramowanie SLC 3.0.4 Wezly serwisowe
równiez z oprogramowaniem ia64 SLC 3.0.4
4GB RAM na wezel 4 wirtulane CPU/WN w
sumie 188 wirtualnych CPUs Pamiec
obecnie 250GB podlaczone przez interface
FC (2TB spodziewane wkrótce)
Software LCG2_4_0 compatible (Openlab)
Uzytkownicy Zarejestrowane VO ALICE,
CompChem, MAGIC, DTeam, VOCE
Rozwój glównie dzieki udzialowi w projektach EU,
CrossGrid i EGEE, oraz SPUB MNiI
37The Baltic Grid Initiative
z prezentacji P. Oestera
- Proposal for a Baltic Grid
- Research Infrastructures Call
- FP6-2004-Infrastructures-6
- Communication Network Development -
eInfrastructure - Consolidating Initiatives
Koncepcja tego projektu zrodzila sie w czasie
CW03
Projekt zatwierdzony do realizacji kick-off
meeting w Krakowie, 24-25 listopada 2005
38BalticGrid Objectives
z prezentacji P. Oestera
- Sustainable integration of the research and
educational computing and communication
infrastructure in the Baltic States into the
European Grid infrastructure. - Enable the formation of effective research
collaborations in the Baltic States, within
Europe and beyond. - Enabling an efficient sharing of unique
instruments and data, as for instance
environmental data related to the Baltic Sea.
39BalticGrid Approach
z prezentacji P. Oestera
- Maximize use of human resources for Grid
development and deployment by implementing the
Baltic Grid as an extension of EGEE - Grid Operations incorporated into the EGEE North
European ROC - Assure manageable co-existence with other
European Grids - NorduGrid, DEISA, CrossGrid,
- Engage the Baltic States in Grid related policy
and standards activities.
40Baltic Grid Partners
z prezentacji P. Oestera
- Estonia
- Estonian Educational and Research Network, EENet
- Keemilise ja Bioloogilse Füüsika Instituut, NICPB
- Latvia
- Institute of Mathematics and Computer Science,
IMCS UL - Riga Technical University, RTU
- Lithuania
- Vilnius University, VU
- Institute of Theoretical Physic and Astronomy,
ITPA - Poland
- Poznan Supercomputing and Networking Center, PSNC
- Instytut Fizyki Jadrowej, im. Henryka
Niewodniczanskiego, Polskiej Akademii Nauk, IFJ
PAN - Sweden
- Parallelldatorcentrum at Kungl Tekniska
Högskolan, KTH PDC - Switzerland
- CERN
41Eight Activities
z prezentacji P. Oestera
- Networking Activities
- NA1 Management of the I3
- NA2 Education, Training, Dissemination and
Outreach - NA3 Application Identification and Support
- NA4 Policy and Standards Development
- Specific Service Activities
- SA1 Grid Operations
- SA2 Network Resource Provisioning
- Joint Research Activities
- JRA1 Account Service Level Agreement Markets
and Dynamic Account Management
IFJ PAN, we wspólpracy z ACK Cyfronet, koordynuje
NA2 uczestniczy w NA3, SA1
42BalticGrid
z prezentacji P. Oestera
- Partners
- 10 Leading institutions in six countries in the
Baltic Region - Budget
- 3M over 30 months
- Coordinator
- KTH PDC, Stockholm
- Resources
- 17 resource centers
43Distribution of Effort (person months)
z prezentacji P. Oestera
- Major part of the work to be performed by the
Estonian, Latvian and Lithuanian partners
44Podsumowanie
- Projekt CrossGrid okazal sie sukcesem jesli idzie
o osiagniecia naukowe i techniczne
Projekt przyniósl wiele posrednich rezultatów,
które sa równie wazne
Koordynacja Projektem wymagala sporego wysilku,
ale tez dala nam uznanie i wiele kontaktów
Wszystko to razem, podkresla znaczenie
wspólpracy miedzynarodowej
45Podziekowania
- Przede wszystkim chce podziekowac tym
wszystkim, którzy przyczynili sie do powstania i
sukcesu projektu Crossrid
Osobne podziekowania naleza sie tym, z których
materialów korzystalem przy przygotowaniu
niniejszej prezentacji
Dziekuje tez Panstwu za uwage
46Wiecej informacji
- CrossGrid
- www.crossgrid.org
- EGEE
- www.eu-egee.org
- BalticGrid
- www.balticgrid.org (wkrótce)
47 48Eksperymenty LHC w CERN
LHC
SPS
CERN Site (Meyrin)
49Eksperymenty LHC w CERN
Normalny fizyk czy inzynier
ATLAS
LHCb
ALICE
50 Eksperymenty LHC w CERN
- Problem doswiadczalny
- Poszukiwanie bardzo rzadkich zjawisk
- prawdopodobienstwo ich
- pojawienia sie jest na
- poziomie 10-4 10-11
- (jedna czesc na 10 miliardów
- trywialnych zdarzen!)
- poszukiwanie igly na
- ogromnym polu siana)
- oddzialywania protonów,
- które sa zlozone, przy
- bardzo wysokich energiach
51- wiele róznych procesów fizycznych-
kilka poziomów filtracji - wysoka
wydajnosc dla ciekawych przypadków-
calkowity wspólczynnik redukcji okolo 106
Eksperymenty LHC i strumienie danych
Preselekcja danych w czasie rzeczywistym
40 MHz (1000 TB/sec - równowazne)
Level 1 Specialna elektronika
75 KHz (75 GB/sec) w postaci cyfrowej
Level 2 Zintegrowane procesory
5 KHz (5 GB/sec)
Level 3 Farmy zwyczajnych PCtów
100 Hz (100 MB/sec)
Zapis danych i analiza offline
52Natezenie danych dla oddzialywan p-p
Typowe parametry Nominalna czestosc - 109
przyp./s (1015 B/s gt 1 PB/s !)
(swietlnosc 1034/cm2s, czestosc zderzen
40MHz) Czestosc rejestracji - 100
przypadków/s (270 przypadków/s) Rozmiar
przypadku - 1 M Byteów/przypadek (2
M Byteów/przypadek) Czas naswietlania 107 s/
rok Objetosc surowych danych 2 Peta
Bytey/rok/eksperyment Dane Monte Carlo 1
Peta Byte/rok/eksperyment Natezenie i objetosc
danych HEP podwaja sie co 12 miesiecy !!! Juz
obecnie eksperymenty BaBar, Belle, CDF, DO
dostarczaja po 1 TB/dzien