Linux sui sistemi dell - PowerPoint PPT Presentation

1 / 41
About This Presentation
Title:

Linux sui sistemi dell

Description:

Linux sui sistemi dell Universit di Palermo Massimo Tartamella [max_at_unipa.it] Palermo 22 e 23 novembre 2002 Indice Cronologia degli eventi rilevanti ... – PowerPoint PPT presentation

Number of Views:153
Avg rating:3.0/5.0
Slides: 42
Provided by: MassimoTa
Category:

less

Transcript and Presenter's Notes

Title: Linux sui sistemi dell


1
Linux sui sistemi dellUniversità di Palermo
  • Massimo Tartamella max_at_unipa.it

Palermo 22 e 23 novembre 2002
2
Indice
  • Cronologia degli eventi rilevanti
  • Infrastruttura della rete universitaria
  • I Server di rete
  • Il progetto GARR-B per lUniversità di Palermo
  • Firewall, IDS,
  • Open Mosix cluster per il calcolo distribuito
  • LVS (Linux Virtual Server) cluster per il
    bilanciamento dei servizi di rete

3
Cronologia degli eventi rilevanti
4
Approccio a Linux e progetto di una rete
metropolitana e geografica finanziata dal MURST
  • Febbraio 2000 Sviluppo della rete nazionale
    della ricerca (rete GARR-B)
  • potenziamento reti regionali (18 milioni di
    Euro)
  • Formazione specialisti di rete (2 milioni di
    Euro)
  • Dicembre 2000 migrazione dei servizi web, posta
    elettronica e autenticazione RADIUS per i 90
    accessi analogici/ISDN
  • Gennaio 2001 implementazione di un Log Server e
    MRTG server
  • Giugno 2001 Server Linux distribuiti con
    funzioni di file server con SAMBA e proxy server
    con Squid
  • Ottobre 2001 backup centralizzati con rsync,
    mirrordir, wget,
  • Febbraio 2002 implementazione di Firewall con
    Iptables
  • Giugno 2002 implementazione di antivirus mail
    server
  • Luglio 2002 sistemi IDS
  • Agosto 2002 avvio formazione specialisti di rete
    (12 allievi tutor)
  • - Cluster MOSIX, LVS e programmazione SQL/PHP
  • Novembre 2002 installazione del mainframe IBM
    Z800 con sistema operativo Z/VM e Linux
  • Novembre/Dicembre 2002 installazioni ponti
    laser, nodi ATM, switch/router a 1000 Mbps, 25
    server di rete biprocessore, firewall, ids e log
    server

5
Infrastruttura della rete universitaria
6
Infrastruttura di rete attuale
  • Parco dOrleans, Ist. Di Fisica (c/o Oss. Astr.),
  • Ist. Di Radiologia (Policlinico), Rettorato e via
  • Archirafi
  • 2 link a 1000 Mbps
  • 5 link a 100 Mbps via ponti ottici (tecnologia
    laser)
  • 15 link a 11 Mbps via radio frequenza a 2,4 GHz
  • 25 Link a 100 Mbps
  • Tecnologia di rete adottata
  • Fast Ethernet (100 Mbps)
  • Gigabit Ethernet (1Gbps)
  • IEEE 802.11b, wireless ethernet (11 Mbps)

7
Infrastruttura di rete a breve
  • Parco dOrleans, Ist. Di Fisica (c/o Oss.
    Astr.), Ist. Di Radiologia (Policlinico),
    Rettorato e via Archirafi
  • 25 Link a 1000 Mbps
  • 5 link a 155 Mbps via ponti ottici
  • 15 link a 11 Mbps via radio a 2,4 GHz
  • Tecnologie di rete da adottare
  • Gigabit Ethernet (1Gbps)
  • ATM (155 Mbps)
  • Fast Ethernet (100 Mbps)
  • IEEE 802.11b, wireless Ethernet (11 Mbps)
  • Nuovi apparati di rete
  • N. 1 Cisco 7606 (router di frontiera) ATM e
    Gigabit Ethernet
  • N. 1 Cisco Catalyst 6509 (switch router di
    campus) ATM e Gigabit Ethernet
  • N.25 Cisco Catalyst 3550 (switch router di
    periferia) Gigabit e Fast Ethernet
  • N.5 Alcatel OMNI-5WX-PLUSATM e Fast Ethernet

8
Altre connessioni
  • HDSL Wind 11 link
  • HDSL Telecom 5 Link
  • ADSL Telecom 20 link
  • CDN Telecom 40 link
  • Accessi analogici/ISDN 90
  • ATM Telecom a 28 Mbps accesso alla rete GARR-B

9
Server di rete
10
Server di rete attualmente gestiti dal Centro
Universitario di Calcolo
  • n. 3 server con CPU ALPHA
  • Server Oracle per procedura Contabilità (Tru64)
  • Server Oracle per procedura Stipendi (Tru64)
  • Server Oracle per sistema Aleph (Tru64)
  • n. 1 server SPARC
  • Server SilverPlatter (Solaris)
  • n. 29 server con CPU INTEL (Red Hat Linux)
  • Servizi di web server, mail server, proxy, dns,
    dhcp server, nfs server, ftp server, log server,
    mrtg server, samba server, appleshare, firewall,
    IDS

11
Server di rete in arrivo al Centro Universitario
di Calcolo
  • n. 20 server HP/COMPAQ ML530
  • 2 GB DDR SDRAM
  • 2 processori Intel Xeon MP 2.4 GHz 512Kb Cache
  • 2 schede di rete Ethernet 10/100/1000Mbps
  • 3 hd 18GB in RAID
  • n. 5 server HP/COMPAQ DL580, unità da rack
  • 2 GB DDR SDRAM
  • 2 processori Intel Xeon MP 1.6GHz 1Mbyte Cache
  • 2 schede di rete Ethernet 10/100/1000Mbps
  • 3 hd 18GB in RAID
  • n. 1 SAN (Storage Area Network) HP/COMPAQ MA8000
    da rack
  • 1 TB di spazio disco complessivo da utilizzare in
    RAID
  • Supporto x Linux
  • n. 1 Armadio rack HPCOMPAQ Rack 10000 da 42 HE
    con switch e monitor flat panel 15

12
IBM Z800
13
Configurazione dellIBM Z800
  • z/Architecture 64-bit a 1000 MHz
  • 1 way Model A01 (CPU Tradizionale)
  • 1 Added IFL (CPU dedicata a Linux)
  • 8 GB di RAM
  • 12 canali ESCON attivi
  • 4 porte ethernet 10/100 Mbps
  • Parallel Channel Attached Using 9034-001
  • Può gestire fino a 15 partizioni logiche (PRSM)
  • E una soluzione basata sul sistema operativo
    zVM
  • 420 GB effettivi in RAID 5 di spazio disco
    utilizzabili in SAN (ESS 2105)

2
14
Z800 Applications Architecture
IBM Z800 System
Hypersocket
Traditional CPU
New Environment - IFL
Segreteria Studenti
zVM 4.3
zVM 4.3
VSEOther
Virtual LAN or IUCV
Linux
AFP Srv
ESCON
Linux
Linux
Linux
FTP/NFS Srv
RSCS
TCP/IP Stack
SNA Srv
TCP/IP Stack and Gateway
AFP Printers
OSA
OSA
OSA
OSA
IEEE 802.3
ESCON
SNA Ctrl
TN3270 Srv
TCP/IP Ext
TCP/IP
SNA Printers
TCP/IP
SNA Ntwrk
TCP/IP Intranet
SNA Terminals
3
15
Un tool per lo storage consolidation
IBM Z800 System
Hypersocket
Traditional CPU
New Environment - IFL
Escon
Segreteria Studenti
zVM 4.3
zVM 4.3
VSEOther
Virtual LAN or IUCV
Linux
(SOD)
AFP Srv
ESCON
Linux
Linux
Linux
RSCS
FTP/NFS Srv
SNA Srv
TCP/IP Stack
TCP/IP Stack and Gateway
AFP Printers
OSA
OSA
OSA
OSA
IEEE 802.3
ESCON
SNA Ctrl
TN3270 Srv
TCP/IP Ext
TCP/IP
SNA Printers
TCP/IP
SNA Ntwrk
TCP/IP Intranet
SNA Terminals
ESS IBM 2105
FiberChannel
SCSI
4
16
Progetto GARR-B per lUniversità di Palermo
17
Schema delle connessioni via ponti ottici (in
tecnologia laser)
Dipartimento di Matematica
Palazzo Marina Rettorato
Dip.to di Fisica (Os.rio Ast.co)
A.O.U.P.G. Radiologia
Fibra ottica multimodale 62,5/125
Centro Univeritario di Calcolo
C.U.C. (Ingegneria DIE)
18
Rete Parco DORLEANS
Gigabit!
19
Collegamento con le sedi esterne
20
Firewall, IDS,
21
(No Transcript)
22
OpenMOSIX cluster per il calcolo distribuito
23
Cosè OpenMOSIX ?
  • Descrizione
  • Openmosix è un sistema open source utilizzabile
    in ambito scientifico per la realizzazione di
    cluster che sfrutta il load-balancing in ambienti
    x86. E possibile con questo sistema, realizzare
    calcolatori virtuali con elevata potenza di
    calcolo, utilizzando risorse, CPU e RAM, di una
    rete di computer.
  • URL
  • http//www.mosix.org

24
Introduzione a OpenMOSIX
  • Modalità di avvio della Farm
  • La farm è costituita da una serie di nodi linux
    basati tecnologia x86 connessi attraverso LAN a
    100/1000Mbit
  • Livello di Implementazione
  • Linux kernel

25
Architettura di OpenMOSIX
  • network
  • Lutente connesso e le applicazioni vedono
    lintero cluster come un unico sistema locale
  • migrazione dei processi
  • Ogni processo dutente,può migrare su ogni nodo
    disponibile in modo del tutto trasparente in
    qualunque istante
  • load balancing
  • Viene effettuato un controllo continuo in rete
    per ridurre al minimo le differenze di carico tra
    i nodi e migrare dinamicamente i processi tra i
    nodi con carico minore (sulla base delle
    variazioni del carico dei nodi, velocità di
    esecuzione dei processi, numero dei nodi in rete,
    ..)
  • memory sharing
  • Viene presa una decisione sul processo da
    migrare sulla base della memoria disponibile
    sugli altri nodi e viene evitato lutilizzo della
    swap memory
  • Kernel communication
  • È sviluppato per ridurre il sovraccarico delle
    comunicazioni interne del kernel e utilizza un
    protocollo veloce e affidabile
  • Controllo decentralizzato e Autonomia
  • Ogni nodo e capace di operare indipendentemente
    dagli altri

26
Una idea sullutilizzo di OpenMOSIX
Nodi Chiavi Ora inizio Ora fine In cluster Durata (hms)
8 100 135413 135607 Yes 154
1 100 135948 140838 No 850
8 1000 141254 143019 Yes 1725
1 1000 143337 153008 No 5631
8 10000 160644 185715 Yes 25031
1 10000 / / No /
16 1000 114930 121158 Yes 2228
16 10000 121947 161510 Yes 35523
I test sono stati effettuati generando
contemporaneamente una serie di chiavi crittate
su un nodo del Cluster
27
Progetto per lintegrazione di OpenMOSIX
nelleAule Didattiche
28
Progetto per Cluster Scientifico
Gigabit
Gigabit
20 Server 12 PC Aula Corsi
Facoltà di Lettere
Aula Tortorici
Gigabit
Gigabit
40 Macchine
20 20 Macchine
Aula F 100
Facoltà di Economia e Commercio
76 Macchine n28 PIV 256MB RAM1500Mhz n48
IBM256MB RAM1000Mhz
50 Macchine
29
LVS cluster per il bilanciamento dei servizi di
rete
30
LVS Linux Virtual Server
  • Esigenze nellambito dei servizi di rete
  • Gestione di servizi con carico elevato
  • Continuità e alta affidabilità dei servizi
    offerti
  • Scalabilità del sistema e manutenzione
    trasparente dei server

31
LVS Linux Virtual Server
Internet
FTP
WEB
IP3
IP1
IP2
MAIL
32
Architettura tradizionale
Vantaggi
Svantaggi
  • Semplice implementazione dellarchitettura di
    rete
  • Configurazione standard dei servizi
  • Minima adattabilità allaumentare del carico
  • Scalabilità solo a livello del singolo server
  • Nessuna ridondanza dei servizi
  • Gestione aggiuntiva del sistema dei servizi di
    backup.

33
Load Balancing
Cresce luso di Internet . Come assicurare il
proprio investimento avendo sempre una continuità
del servizio, ed una efficente e crescente
performance dei propri server?
Incrementare le capacità dei Server
Server overload
Server farms
Cresce la popolarità di internet
La soluzione
Servers più potenti
34
LVS Linux Virtual Server
Con il Load Balancing si incrementano le
performance dei servizi attraverso il
bilanciamento del carico su tutti i server.
L V S
FTP
WEB
MAIL
Ottimizzazione dei servizi
Servizi non bilanciati
35
Director LVS
  • Il director LVS offre il bilanciamento dei
    carichi a livello IP in modo da far apparire più
    servizi paralleli del cluster come servizi
    virtuali disponibili su un singolo indirizzo
    server (con un unico indirizzo IP).
  • Tutte le richieste vengono inviate all IP
    virtuale (VIP) attribuito al director, che avrà
    il compito di smistarle secondo degli algoritmi
    di balancing o scheduling definiti (Round-Robin,
    Weighted Round-Robin, Least Connection, Weighted
    Least Connection)

36
Unico Virtual Ip per tutti i servizi
Unico indirizzo ip per tutti i servizi attivi
della farm.
Virtual IP
Linux Virtual Server
IP3
IP1
IP2
IP3
Multpli Indirizzi Ip di accesso
Unico Indirizzo Ip di accesso
37
LVS Linux Virtual Server
Anche se un singolo server dovesse risultare non
disponibile il servizio viene sempre erogato.
Internet
Linux Virtual Server
38
LVS Linux Virtual Server
La soluzione deve essere flessibile e crescere
allaumentare della domanda il tutto deve
avvenire in una modalità trasparente,
ottenendo unottima scalabilità.
Linux Virtual Server
39
LVS al Centro Univ. di Calcolo
  • La finalità del progetto è di implementare
    inizialmente i servizi di web, proxy, ftp, mail
    e samba server sotto LVS utilizzando la soluzione
    in modalità LVS-Nat.
  • Per assicurare la massima ridondanza verrà
    installato un Director LVS di backup configurato
    secondo l High-Availability Linux Project.
  • Inoltre tutti i server verranno collegati alle
    SAN (Storage Area Network) IBM e Compaq per
    laccesso ad uno spazio di disco condiviso

40
Internet
Linux Virtual Server
Linux Virtual Server Backup
FTP
WEB
MAIL
SAN Storage Area Network
41
Grazie a tutti
Write a Comment
User Comments (0)
About PowerShow.com