czyli o tym jak projekt powstawal, - PowerPoint PPT Presentation

1 / 49
About This Presentation
Title:

czyli o tym jak projekt powstawal,

Description:

czyli o tym jak projekt powstawal, – PowerPoint PPT presentation

Number of Views:45
Avg rating:3.0/5.0
Slides: 50
Provided by: jaros98
Category:
Tags: czyli | jak | powstawal | projekt | tym

less

Transcript and Presenter's Notes

Title: czyli o tym jak projekt powstawal,


1
story
  • czyli o tym jak projekt powstawal,
  • jak byl realizowany i co z niego
  • pozostalo...

Michal Turala IFJ PAN i ACK Cyfronet AGH
2
Prehistoria
  • Rok 2000
  • Maly klaster PC z systemem GLOBUS w KI AGH
  • Brak infrastruktury dla analizy danych z duzych
    eksperymentów FWE
  • Spotkania jesienia 2000
  • w Warszawie, w pazdzierniku ? POLGRID ??? .
  • w Krakowie, w listopadzie, Polish Workshop on
    LHC Computing z udzialem IFJ, ICM, Cyfronetu,
    PCSS oraz pracowników CERN
  • prezentacje J. Kitowskiego i J. Nabrzyskiego,
    dotyczace ACK Cyfronet, PCSS i projektu PIONIER
  • prezentacje F. Carminatiego, B. Segala i W. von
    Ruedena, dotyczace DataGrid i komputingu dla
    eksperymentów LHC
  • Mysl o dolaczeniu do EU DataGrid, jako projekt
  • stowarzyszony
  • Robocza nazwa Polish DataGrid.

3
Polish DataGrid
  • Spotkania robocze
  •   ICM Warszawa, 27.10.2000
  •   IFJ Kraków, 24.11.2000
  •    ICM Warszawa, 18.12.2000
  •   PCSS Poznan, 3.01.2001
  •    IFJ Kraków, 15.01.2001
  •   CERN, 24-26.01.2001
  • ICM/IPJ Warszawa, 2.02.2001

4
Polish DataGrid
  • Konsorcjum
  •  
  • 1.   ACK CYFRONET AGH Kraków
  • 2.   Interdyscyplinarne Centrum Modelowania
    Warszawa
  • 3.   Poznanskie Centrum Superkomputerowo-Sieciowe
    - Poznan
  • 4.   Instytut Fizyki Jadrowej - Kraków
  • 5.   Wydzial Fizyki i Techniki Jadrowej AGH
    Kraków
  • 6.   Instytut Fizyki Doswiadczalnej UW -
    Warszawa
  • 7.   Instytut Problemów Jadrowych UW Warszawa
  • Koordynacja
  • M. Bubak (Cyfronet/ KI AGH Kraków)
  • J. Nabrzyski (PCSS Poznan)
  • M. Turala (IFJ Kraków)
  • W. Wislicki (ICM/ IFD UW Warszawa)

5
Polish DataGrid
  • ....Consortium whose goal is the development of
    the Proposal of the Project called Polish
    DataGrid, affiliated to the EU project
    DataGrid...,
  • ....Consortium will develop an organizational,
    hardware and middleware infrastructure for
    distributed scientific computing and data storage
    in Poland, and will make this infrastructure
    available for Polish and international research
    groups taking part in the future high-energy
    physics experiments....
  • ....The Project is planned for the years
    2001-2003 with possible extension for further
    stages, when the next generation of experiments
    becomes operational...
  • The principal objectives of the Project are to
  • -  .... build a distributed computing cluster
    of PC/workstations with cumulative performance
    adequate to many scientific applications,
    complemented by a dedicated distributed storage
    system,
  • ........
  • -         - create and develop a domain-oriented
    physics DataGrid portal as an entry point for
    computing on the cluster,
  • -       -  use the research networking
    infrastructure available in Poland to establish
    parallel links between cluster nodes with a high
    throughput network technology,
  • -     - connect this infrastructure to the CERN
    DataGrid infrastructure and test the system
    performance....

6
Polish DataGrid
  • Signatures of the Representatives of the Polish
    DataGrid Participants
  • For the Academic Computer Center, CYFRONET, AGH,
    Kraków Prof. Dr Marian Noga
  • Director
  •  
  • For the Henryk Niewodniczanski Institute of
    Nuclear Physics, Kraków Prof. Dr Andrzej
    Budzanowski
  • Director
  •  
  • For the Faculty of Physics and Nuclear Techniques
    of the University of Mining and Metallurgy,
    Kraków
  • Prof. Dr Kazimierz Jelen
  • For the Institute of Experimental Physics, Warsaw
    University Prof. Dr Jan Krolikowski
  •  
  • For the Interdisciplinary Centre for Mathematical
    and Computational Modelling, Warsaw University
  • Prof. Dr Bogdan Lesyng
  • v-ce Director
  •  
  • For Soltan Institute of Nuclear Studies, High
    Energy Physics Dept. Prof. Dr Helena Bialkowska

7
Polish DataGrid
  • Dyskusje w CERN (24-26.01.2001)
  •  
  • Dyskusje z F. Gagliardi (DataGrid Project
    Manager)
  • z udzialem
  • M. Bubak, R. Gokieli, J. Nabrzyski, K. Nawrocki,
    M. Turala
  •  
  • -   Projekt DataGrid zatwierdzony zostal 29
    grudnia 2000
  •  
  • - Mozliwosc stworzenia projektu stowarzyszonego
    (cross project) z udzialem Grecji, Hiszpanii,
    Polski, Wloch w tej sprawie odbyly sie osobne
    spotkania (szczególy w prezentacjach MB i KN)
  •  
  • - Mozliwosc dolaczenia z wykorzystaniem Special
    requirements for proposals for Action line
    IST-2001-VIII 1.6. EXTENTION OF EXISTING IST
    CONTRACTS WITH NAS PARTNERS termin skladania
    aplikacji 17.04.2001
  •  
  • -  Dolaczenie do projektu CERN DataGrid musi byc
    zgodne z jego obecna struktura (workpackages)
    moga to byc nowe zadania badz dolaczenie do
    istniejacych (zadania realizowane przez CERN sa
    niedoinwestowane)
  •  
  • -  Projekt stowarzyszony z CERN DataGrid (cross
    project) tematycznie nie moze sie pokrywac z
    macierzystym
  •  
  • Rozmiary projektu (-ów), sprawy formalne,
    terminy, pilne potrzeby, itd. (szczególy w
    dalszej czesci spotkania - MT)

8
Polish DataGrid
  • Dyskusje w CERN (24-26.01.2001)
  •  
  • Spotkanie z Dyrektorem CERN, H.F. Hoffmannem
  • (CERN Director for Technology Transfer and for
    Scientific Computing)
  • z udzialem M. Delfino (IT Division Leader), L.
    Robertson (IT Deputy Division Leader), F.
    Gagliardi (DataGrid Project Manager), M. Bubak,
    R. Gokieli, J. Nabrzyski, K. Nawrocki, M. Turala
  • -  Raport dotyczacy potrzeb komputerowych
    eksperymentów LHC i propozycji ich rozwiazania
    jest w fazie koncowej bedzie rozeslany krajom
    czlonkowskim z koncem lutego
  • -  Intensywny rozwój programu GRID w Europie
  •       - specjalne finansowaniu w UK (PPARC 15 M
    funtów),
  •       - specjalne finansowanie we Wloszech (INFN
    45 Mld lirów),
  • - sytuacja w Niemczech niejasna (Tier 1 w
    Karlshrue?) - w najblizszych tygodniach sprawy
    powinny sie wyjasnic
  • - Uznanie dla Konsorcjum Polish DataGrid i
    przygotowanych propozycji
  • -  Dolaczenie do projektu CERN DataGrid
  • - Rozszerzenie projektu,
  • - Projekt stowarzyszony,

9
Polish DataGrid
  • Dyskusje w CERN (24-26.01.2001)
  •  Spotkania
  • L. Robertson (IT Deputy Division Leader), W.von
    Rueden (IT PDP Group leader), B. Segal (CERN
    DataGrid WP8 Manager)
  • z udzialem M. Bubak, R. Gokieli, J. Nabrzyski,
    K. Nawrocki, M. Turala
  • -  Uznanie dla przygotowanej oferty technicznej
    Polish DataGrid
  • - M. Bubak Co. (...)
  • - J. Nabrzyski (DataGrid Portal..)
  • -  Specjalne zainteresowanie
  • - Infrastruktura (siec, test-beds),
  • - Narzedzia dla High Throughput GRID Computing,
  • - Zarzadzanie danymi,
  • - Mobilne srodowisko pracy,
  • - Portal DataGrid dla fizyków,
  • - Zabezpieczenia GRIDu.
  • - itd.
  • -  Sugestie odnosnie tematyki dla projektu
    stowarzyszonego z CERN DataGrid (cross project)

10
CrossGrid
  • Call Conference
  • On the preparation of Cross Action Programme Grid
    project, 21 Feb 2001
  • Participants
  • Austria, Vienna (P. Brezany) CERN (F. Gagliardi,
    T. Kokkinias) Germany, Munich (R.
    Wismueller),Karlsruhe (H. Marten), Heidelberg (A.
    Putzer) Italy, Datamat (U.P. Grandinetti, F.
    Rossi) Poland, Krakow (M. Bubak, M. Turala),
    Poznan (J. Nabrzyski), Warsaw (W. Wislicki)
    Spain, Santander (J. Marco) UK, British Telecom
    (P. Plaszczak)
  • It was agreed
  • EU provides new opportunities within the Cross
    Programme Action (CPA9) the deadline for
    proposals is 25 of April 2001. Number of
    institutions expressed their interest in the
    preparation of a common proposal here it is
    tentatively called "Cross Grid".
  • suggestions were made how to organize the work
    in the coming weeks, to be ready with the
    pre-proposal for the Amsterdam GG/DG Forum 3-9
    March
  • Dr M. Bubak, of Krakow Academic Computing Center
    CYFRONET has agreed to act as a chief editor of
    the pre-proposal

11
CPA9 Cross Grid projectAmsterdam, 7 March 2001
  • Agenda
  • Introduction
  • Status and perspectives
  • Participants
  • Presentation and formal commitments
  • Austria, CERN, Cyprus, Germany, The Netherlands,
    Greece, Italy, Poland, Portugal, Spain, UK
  • Industrial participation
  • Project - Application driven
  • Contributions and workpackages (M. Bubak)
  • Partners
  • Workplan
  • Deadline 25 April 2001
  • A meeting with Kyriakos Baxevanidis
  • Dinner

UK zrezygnowala dolaczyla Slowacja
12
Projekt CrossGrid
  • Projekt przygotowany i zlozony w terminie
  • Abstrakt The Cross Grid project will develop,
    implement and exploit new Grid components for
    interactive compute and data intensive
    applications like simulation and visualisation
    for surgical procedures, flooding crisis team
    decision support systems, distributed data
    analysis in high-energy physics, air pollution
    combined with weather forecasting. The elaborated
    methodology, generic application architecture,
    programming environment, and new Grid services
    will be validated and tested thoroughly on the
    CrossGrid testbed, with an emphasis on a user
    friendly environment. The work will be done in
    close collaboration with the Grid Forum and the
    DataGrid project to profit from their results and
    experience, and to obtain full interoperability.
    This will result in the further extension of the
    Grid across eleven European countries.
  • Uczestnicy pierwotnie bylo 22 partnerów (w
    trakcie negocjacji odpadl UAM, jako iz ich
    przedstawiciel byl .nieobecny) pozostalo 21
  • Koszt calosc ok. 9 MEuro dotacja UE ok. 6.5
    MEuro
  • Rezultat konkursu projekt uzyskal ocene 3.3 (w
    skali 5 najw. ocena byla 4.1) i zostal
    zatwierdzony do realizacji poczynajac od 1
    stycznia 2002 (de facto od 1 marca 2002) koszt
    musial zostac zredukowany o ok. 20 (tj, do ok. 5
    MEuro)

13
Projekt CrossGrid
  • Realizacja
  • Prace nad rozwojem oprogramowania i testbedów
  • Aplikacje glównie poza Polska w Krakowie -
    medyczna i fizyka WE, w Warszawie
    przewidywania pogody
  • Rozwój oprogramowania w Krakowie Architektura,
    Performance Evaluation i Grid monitoring, Data
    Access
  • Miedzynarodowe Testbeds (w Cyfronecie poczatkowo
    kilka maszyn, pod koniec projektu 40
    dwuprocesorowych wezlów Rack Saver)
  • Kierowanie zlozonym projektem
  • Zarzadzanie i administracja - Steering Group i CG
    office
  • 65 spotkan CG SG w okresie listopad 2001
    kwiecien 2005
  • zebranie i wyslanie ok. 80 deliverables
    (planowano ok. 100!)
  • zebranie i sprawdzenie corocznych sprawozdan
    finansowych
  • przygotowanie Consortium Agreement i Project
    Amendment
  • dokumentacja i deseminacja informacji
  • Koordynacja techniczna Architecture Team i
    Technical Board
  • udzial w przygotowaniu i sprawdzeniu deliverables
  • przygotowywanie programów konferencji projektu
  • opracowanie i demonstracje tutoriali
  • przygotowywanie materialów popularyzatorskich

14
Projekt CrossGrid
  • Konferencje oraz spotkania robocze majace na celu
    testy i integracje oprogramowania
  • Kraków, marzec 2002, konferencja kick-off
    CrossGrid
  • Linz, wrzesien 2002, konferencja CrossGrid
  • Santiago de Compostela, luty 2003, integracja,
    konf. CrossGrid i Across Grids
  • Poznan, lipiec 2003, integracja oprogramowania
  • Nicosia, styczen 2004, integracja, konferencje
    CrossGrid i Across Grids
  • Dagstuhl, lipiec 2004, integracja oprogramowania
  • Lisbona, pazdziernik 2004, integracja
    oprogramowania
  • Amsterdam, luty 2005, spotkanie CrossGrid i
    Europejska Konferencja Gridowa
  • Przeglady postepu prac
  • Bruksela, 12 marca 2003
  • Bruksela 18 czerwca 2003 (poprawka)
  • Karlsruhe, 16 marca 2004
  • Bruksela 14-16 czerwca 2005 (poprawka dot.
    eksploatacji),
  • Dagstuhl, 29 lipca 2004 (poprawka dot.
    integracji)
  • Amsterdam, 16-17 luty 2005
  • Kontakty z Bruksela

15
Projekt CrossGrid
  • Konferencja Kick-off Kraków, 17-20 marca 2002

16
Projekt CrossGrid
  • Konferencja CG, Santiago de Compostela, 10-12
    luty 2003, polaczona z warsztatami integracji i
    1-sza konferencja Across Grids

17
Projekt CrossGrid
  • Konferencja CG, Nicosia, 26-28 stycznia 2004,
    polaczona z warsztatami integracji i 2-ga
    konferencja Across Grids

18
Projekt CrossGrid
  • Konferencja CG, Amsterdam, 13-16 luty 2005,
    polaczona z 1-sza Europejska Konferencja Gridowa
    i koncowym sprawozdaniem

19
CrossGrid project targets
Prezentacja H. Kornmayera na konferencji EGEE,
Ateny, maj 2005
  • Enable four new societally important applications
    on the Grid
  • Bio medical application (Blood flow simulation)
  • Flood crisis team support
  • Neural Net training for HEP
  • Meterological modelling for air pollution
  • Enable interactive applications on the Grid
  • Human in the Loop
  • Parallel Applications using MPI
  • Setup of a European Grid including new member
    states

20
CrossGrid - partners
Prezentacja H. Kornmayera na konferencji EGEE,
Ateny, maj 2005
  • 21 partners
  • 5 Workpackages
  • New Grid applications
  • Grid Development tools
  • New Grid Middleware
  • International testbed
  • Management
  • Testbed
  • 16 Locations
  • 9 countries
  • gt 200 CPU
  • 4 TB Storage

21
CrossGrid - architecture
Tools
  • 16 sites
  • 9 countries
  • over 200 CPUs
  • 4 TB of storage
  • T e s t b e d

Prezentacja H. Kornmayera na konferencji EGEE,
Ateny, maj 2005
22
CrossGrid - Conclusions
Prezentacja H. Kornmayera na konferencji EGEE,
Ateny, maj 2005
  • CrossGrid has successfully reached its targets
  • Interactivity, Integration, Innovations
  • Outcome of the review on 16th/17th February
  • ..Successfully completed..
  • ..technically an excellent job..
  • New kind of applications on the Grid
  • Support for MPI on the Grid
  • New approach for a user-friendly access to the
    Grid
  • Grid becomes invisible

CrossGrid flood demo won the first prize for the
best Grid application!
  • Demos this afternoon
  • Interactive Applications - Migrating Desktop -
    GridBench
  • Flood crisis support team - OCM-G (MPI
    application monitoring)

CrossGrid testbed is available for new
applications CrossGrid testbed can be a valueable
Grid inside EGEE
23
Strong Polish Participation in FP5 Grid Research
Projects
CROSSGRID Testbed in Action
  • 2 Polish-led Projects (out of 12)
  • CrossGrid
  • CYFRONET Cracow
  • ICM Warsaw
  • PSNC Poznan
  • INP Cracow
  • INS Warsaw
  • GridLab
  • PSNC Poznan
  • Significant share of funding to Poland versus
    EU25
  • FP5 IST Grid Research Funding 9.96
  • FP5 wider IST Grid Project Funding 5
  • GDP 3.8
  • Population 8.8

z wystapienia M. Lemke na CGW04
24
Crossrid - podsumowanie
  • Projekt CrossGrid przyniósl tez wiele waznych
    posrednich rezultatów
  • Nowa tematyke naukowo-badawcza w II AGH
  • Nowa technologie informatyczna w ACK Cyfronet
    AGH,
  • wazna dla wielu zastosowan
  • Nowa tematyke dydaktyczna (wyklady, seminaria,
    cwiczenia
  • praktyczne, prace mgr i doktorskie)
  • Kilkadziesiat osób zapoznalo sie z technologia
    gridowa
  • Zwiekszyl swiatowe uznanie dla polskich
    informatyków
  • Poinformowal swiat lepiej o stanie polskiej
    infrastruktury informatycznej (sieci, centra
    obliczeniowe)
  • Pomógl w ustanowieniu nowej serii konferencji/
    warsztatów
  • miedzynarodowych (seria CGW i inne)
  • Ustanowil kontakty miedzynarodowe, które owocuja
    nowymi
  • projektami (EGEE, Kwf-Grid, CoreGrid, BalticGrid
    i inne)
  • Stworzyl warunki dla prac badawczych w
    dziedzinie fizyki
  • (LCG), chemii, biologii, medycynie, inzynierii.

25
Crossrid - podsumowanie
  • Projekt CrossGrid przyniósl tez wiele waznych
    posrednich rezultatów
  • Nowa tematyke naukowo-badawcza w II AGH
  • Nowa technologie informatyczna w ACK Cyfronet
    AGH, wazna dla
  • wielu zastosowan
  • Nowa tematyke dydaktyczna (wyklady, seminaria,
    cwiczenia
  • praktyczne, prace mgr i doktorskie)
  • Kilkadziesiat osób zapoznalo sie z technologia
    gridowa
  • Zwiekszyl swiatowe uznanie dla polskich
    informatyków
  • Poinformowal lepiej swiat o stanie polskiej
    infrastruktury
  • informatycznej (sieci, centra obliczeniowe)
  • Pomógl w ustanowieniu nowej serii konferencji/
    warsztatów
  • miedzynarodowych (seria CGW i inne)
  • Ustanowil kontakty miedzynarodowe, które owocuja
    nowymi

26
EGEE (Enabling Grid for e-Science in Europe)
  • 70 leading institutions in 27 countries,
    federated in regional Grids
  • (z Polski ACK Cyfronet, ICM i PCSS)
  • 32 M Euros EU funding for first2 years starting
    1st April 2004
  • (ale tylko 0.5 M Euro dla Polski)
  • Leveraging national and regional grid activities
  • Promoting scientific partnership outside EU

Austria, Czechy, Polska, Slowacja, Slowenia,
Wegry
27
EGEE
  • Goal of EGEE develop a service grid
    infrastructure in Europe which is available to
    scientists 24 hours-a-day
  • The project concentrates on
  • building a consistent, robust and secure Grid
    network that will attract additional computing
    resources to continuously improve and maintain
    the middleware in order to deliver a reliable
    service to users
  • attracting new users from industry as well as
    science and ensure they receive the high standard
    of training and support they need
  • Challenges
  • Integrate international resources
  • Interoperability (Grid3/OSG, NorduGrid, )
  • Contribution to standardization

28
EGEE Activities
  • 48 service activities (Grid Operations, Support
    and Management, Network Resource Provision)
  • 24 middleware re-engineering (Quality
    Assurance, Security, Network Services
    Development)
  • 28 networking (Management, Dissemination and
    Outreach, User Training and Education,
    Application Identification and Support, Policy
    and International Cooperation)

Emphasis in EGEE is on operating a
production grid and supporting the end-users
29
Future EGEE Middleware - gLite
  • Intended to replace present middleware with
    production quality services
  • Developed from existing components
  • Aims to address present shortcomings and advanced
    needs from applications
  • Prototyping short development cycles for fast
    user feedback
  • Initial web-services based prototypes being tested

gLite-2
gLite-1
LCG-2
LCG-1
Globus 2 based
Web services based
Application requirements http//egee-na4.ct.infn.i
t/requirements/
30
EGEE Operations OMC and CIC
  • Operation Management Centres
  • CERN, RAL, Bologna, Taipei, coordinate operations
    and management
  • coordinate with other grid projects
  • Core Infrastructure Centres
  • behave as single organisations
  • operate core services (VO specific and general
    Grid services)
  • develop new management tools
  • provide support to the Regional Operations
    Centres

31
Grid Operations
  • The grid is flat, but
  • Hierarchy of responsibility
  • Essential to scale the operation
  • CICs act as a single Operations Centre
  • Operational oversight (grid operator)
    responsibility
  • rotates weekly between CICs
  • Report problems to ROC/RC
  • ROC is responsible for ensuring problem is
    resolved
  • ROC oversees regional RCs
  • ROCs responsible for organising the operations in
    a region
  • Coordinate deployment of middleware, etc
  • CERN coordinates sites not associated with a ROC

CEC ROC ACK Cyfronet ICM PCSS
RC Resource Centre
32
Computing Resources Dec. 2004
Were already exceeding deployment
expectations!!!
33
Deployment of applications
  • Pilot applications
  • High Energy Physics
  • Biomed applications
  • Generic applications Deployment under way
  • Computational Chemistry
  • Earth science research
  • EGEODE first industrial application
  • Astrophysics
  • With interest from
  • Hydrology
  • Seismology
  • Grid search engines
  • Stock market simulators
  • Digital video etc.

34
Polska infrastruktura EGEE (LCG) Tier2 w ACK
Cyfronet AGH, Kraków

Procesory 4 x dual PIII 1GHz, 512MB RAM,
40GB HDD 68 x dual Xeon 2.4 - 2.8GHz, 2GB
RAM, 40-120 GB HDD 20 x dual
Itanium2 1.3GHz, 2GB RAM, 2x36GB
SCSI HDD Pamieci 3.6 TB Storage (Disk Array)
and 15 TB from disk storage HP XP12000
Siec 10 Gbps MAN and GEANT connection Oprogram
owanie LCG-2.4.0 (Globus 2.4.3) Uzytkownicy
ATLAS, LHCB, ALICE równiez BELLE, ZEUS,
teoretycy Plany zakup 120 dual Xeon 3.6 GHz
dodatkowych wezlów (ok. 50 dla
LCG) Planowany maly klaster (Tier3) w IFJ PAN
LUBLIN
Rozwój glównie dzieki udzialowi w projektach EU,
CrossGrid i EGEE, oraz SPUB MNiI
35
Polska infrastruktura EGEE (LCG) Tier2 w ICM UW,
Warszawa

Pierwszy maly klaster LCG Processors
AMD dual AthlonMP 2400 4 x dual AthlonMP
2000 Intel 2 x dual Pentium III 1 GHz
Storage 400 GB of disk storage
Oprogramowanie LCG2.4.0 (Globus 2.4.3)
Uzytkownicy glównie CMS (równiez LHCb) Nowa
instalacja - AMD Dual Opteron 250 2.4 GHz
90 wezlów - 7.2 TB of pamieci dyskowej
- Duza czesc ( 50) dostepna dla LCG -
Uzytkownicy CMS, LHCb, COMPASS,
astrofizyka Maly klaster (Tier3) w IPJ i na PW
LUBLIN
Rozwój glównie dzieki udzialowi w projektach EU,
CrossGrid i EGEE, oraz SPUB MNiI
36
Polska infrastruktura EGEE (LCG) Klaster EGEE
(Tier2) w PCSS, Poznan

Zabezpiecza polaczenia sieciowe 10 Gbps MAN
i GEANT Polski uczestnik EGEE (LCG) Hardware
50 podwójnych wezlów IA64 47 ia64 WNs,
oprogramowanie SLC 3.0.4 Wezly serwisowe
równiez z oprogramowaniem ia64 SLC 3.0.4
4GB RAM na wezel 4 wirtulane CPU/WN w
sumie 188 wirtualnych CPUs Pamiec
obecnie 250GB podlaczone przez interface
FC (2TB spodziewane wkrótce)
Software LCG2_4_0 compatible (Openlab)
Uzytkownicy Zarejestrowane VO ALICE,
CompChem, MAGIC, DTeam, VOCE
Rozwój glównie dzieki udzialowi w projektach EU,
CrossGrid i EGEE, oraz SPUB MNiI
37
The Baltic Grid Initiative
z prezentacji P. Oestera
  • Proposal for a Baltic Grid
  • Research Infrastructures Call
  • FP6-2004-Infrastructures-6
  • Communication Network Development -
    eInfrastructure - Consolidating Initiatives

Koncepcja tego projektu zrodzila sie w czasie
CW03
Projekt zatwierdzony do realizacji kick-off
meeting w Krakowie, 24-25 listopada 2005
38
BalticGrid Objectives
z prezentacji P. Oestera
  • Sustainable integration of the research and
    educational computing and communication
    infrastructure in the Baltic States into the
    European Grid infrastructure.
  • Enable the formation of effective research
    collaborations in the Baltic States, within
    Europe and beyond.
  • Enabling an efficient sharing of unique
    instruments and data, as for instance
    environmental data related to the Baltic Sea.

39
BalticGrid Approach
z prezentacji P. Oestera
  • Maximize use of human resources for Grid
    development and deployment by implementing the
    Baltic Grid as an extension of EGEE
  • Grid Operations incorporated into the EGEE North
    European ROC
  • Assure manageable co-existence with other
    European Grids
  • NorduGrid, DEISA, CrossGrid,
  • Engage the Baltic States in Grid related policy
    and standards activities.

40
Baltic Grid Partners
z prezentacji P. Oestera
  • Estonia
  • Estonian Educational and Research Network, EENet
  • Keemilise ja Bioloogilse Füüsika Instituut, NICPB
  • Latvia
  • Institute of Mathematics and Computer Science,
    IMCS UL
  • Riga Technical University, RTU
  • Lithuania
  • Vilnius University, VU
  • Institute of Theoretical Physic and Astronomy,
    ITPA
  • Poland
  • Poznan Supercomputing and Networking Center, PSNC
  • Instytut Fizyki Jadrowej, im. Henryka
    Niewodniczanskiego, Polskiej Akademii Nauk, IFJ
    PAN
  • Sweden
  • Parallelldatorcentrum at Kungl Tekniska
    Högskolan, KTH PDC
  • Switzerland
  • CERN

41
Eight Activities
z prezentacji P. Oestera
  • Networking Activities
  • NA1 Management of the I3
  • NA2 Education, Training, Dissemination and
    Outreach
  • NA3 Application Identification and Support
  • NA4 Policy and Standards Development
  • Specific Service Activities
  • SA1 Grid Operations
  • SA2 Network Resource Provisioning
  • Joint Research Activities
  • JRA1 Account Service Level Agreement Markets
    and Dynamic Account Management

IFJ PAN, we wspólpracy z ACK Cyfronet, koordynuje
NA2 uczestniczy w NA3, SA1
42
BalticGrid
z prezentacji P. Oestera
  • Partners
  • 10 Leading institutions in six countries in the
    Baltic Region
  • Budget
  • 3M over 30 months
  • Coordinator
  • KTH PDC, Stockholm
  • Resources
  • 17 resource centers

43
Distribution of Effort (person months)
z prezentacji P. Oestera
  • Major part of the work to be performed by the
    Estonian, Latvian and Lithuanian partners

44
Podsumowanie
  • Projekt CrossGrid okazal sie sukcesem jesli idzie
    o osiagniecia naukowe i techniczne

Projekt przyniósl wiele posrednich rezultatów,
które sa równie wazne
Koordynacja Projektem wymagala sporego wysilku,
ale tez dala nam uznanie i wiele kontaktów
Wszystko to razem, podkresla znaczenie
wspólpracy miedzynarodowej
45
Podziekowania
  • Przede wszystkim chce podziekowac tym
    wszystkim, którzy przyczynili sie do powstania i
    sukcesu projektu Crossrid

Osobne podziekowania naleza sie tym, z których
materialów korzystalem przy przygotowaniu
niniejszej prezentacji
Dziekuje tez Panstwu za uwage
46
Wiecej informacji
  • CrossGrid
  • www.crossgrid.org
  • EGEE
  • www.eu-egee.org
  • BalticGrid
  • www.balticgrid.org (wkrótce)

47
  • Dodatkowe transparencje

48
Eksperymenty LHC w CERN
LHC
SPS
CERN Site (Meyrin)
49
Eksperymenty LHC w CERN
Normalny fizyk czy inzynier
ATLAS
LHCb
ALICE
50
Eksperymenty LHC w CERN
  • Problem doswiadczalny
  • Poszukiwanie bardzo rzadkich zjawisk
  • prawdopodobienstwo ich
  • pojawienia sie jest na
  • poziomie 10-4 10-11
  • (jedna czesc na 10 miliardów
  • trywialnych zdarzen!)
  • poszukiwanie igly na
  • ogromnym polu siana)
  • oddzialywania protonów,
  • które sa zlozone, przy
  • bardzo wysokich energiach

51
- wiele róznych procesów fizycznych-
kilka poziomów filtracji - wysoka
wydajnosc dla ciekawych przypadków-
calkowity wspólczynnik redukcji okolo 106
Eksperymenty LHC i strumienie danych
Preselekcja danych w czasie rzeczywistym
40 MHz (1000 TB/sec - równowazne)
Level 1 Specialna elektronika
75 KHz (75 GB/sec) w postaci cyfrowej
Level 2 Zintegrowane procesory
5 KHz (5 GB/sec)
Level 3 Farmy zwyczajnych PCtów
100 Hz (100 MB/sec)
Zapis danych i analiza offline
52
Natezenie danych dla oddzialywan p-p
Typowe parametry Nominalna czestosc - 109
przyp./s (1015 B/s gt 1 PB/s !)
(swietlnosc 1034/cm2s, czestosc zderzen
40MHz) Czestosc rejestracji - 100
przypadków/s (270 przypadków/s) Rozmiar
przypadku - 1 M Byteów/przypadek (2
M Byteów/przypadek) Czas naswietlania 107 s/
rok Objetosc surowych danych 2 Peta
Bytey/rok/eksperyment Dane Monte Carlo 1
Peta Byte/rok/eksperyment Natezenie i objetosc
danych HEP podwaja sie co 12 miesiecy !!! Juz
obecnie eksperymenty BaBar, Belle, CDF, DO
dostarczaja po 1 TB/dzien
Write a Comment
User Comments (0)
About PowerShow.com