Title: Linux sui sistemi dell
1Linux sui sistemi dellUniversità di Palermo
- Massimo Tartamella max_at_unipa.it
Palermo 22 e 23 novembre 2002
2Indice
- Cronologia degli eventi rilevanti
- Infrastruttura della rete universitaria
- I Server di rete
- Il progetto GARR-B per lUniversità di Palermo
- Firewall, IDS,
- Open Mosix cluster per il calcolo distribuito
- LVS (Linux Virtual Server) cluster per il
bilanciamento dei servizi di rete -
3Cronologia degli eventi rilevanti
4Approccio a Linux e progetto di una rete
metropolitana e geografica finanziata dal MURST
- Febbraio 2000 Sviluppo della rete nazionale
della ricerca (rete GARR-B) - potenziamento reti regionali (18 milioni di
Euro) - Formazione specialisti di rete (2 milioni di
Euro) - Dicembre 2000 migrazione dei servizi web, posta
elettronica e autenticazione RADIUS per i 90
accessi analogici/ISDN - Gennaio 2001 implementazione di un Log Server e
MRTG server - Giugno 2001 Server Linux distribuiti con
funzioni di file server con SAMBA e proxy server
con Squid - Ottobre 2001 backup centralizzati con rsync,
mirrordir, wget, - Febbraio 2002 implementazione di Firewall con
Iptables - Giugno 2002 implementazione di antivirus mail
server - Luglio 2002 sistemi IDS
- Agosto 2002 avvio formazione specialisti di rete
(12 allievi tutor) - - Cluster MOSIX, LVS e programmazione SQL/PHP
- Novembre 2002 installazione del mainframe IBM
Z800 con sistema operativo Z/VM e Linux - Novembre/Dicembre 2002 installazioni ponti
laser, nodi ATM, switch/router a 1000 Mbps, 25
server di rete biprocessore, firewall, ids e log
server
5Infrastruttura della rete universitaria
6Infrastruttura di rete attuale
- Parco dOrleans, Ist. Di Fisica (c/o Oss. Astr.),
- Ist. Di Radiologia (Policlinico), Rettorato e via
- Archirafi
- 2 link a 1000 Mbps
- 5 link a 100 Mbps via ponti ottici (tecnologia
laser) - 15 link a 11 Mbps via radio frequenza a 2,4 GHz
- 25 Link a 100 Mbps
- Tecnologia di rete adottata
- Fast Ethernet (100 Mbps)
- Gigabit Ethernet (1Gbps)
- IEEE 802.11b, wireless ethernet (11 Mbps)
7Infrastruttura di rete a breve
- Parco dOrleans, Ist. Di Fisica (c/o Oss.
Astr.), Ist. Di Radiologia (Policlinico),
Rettorato e via Archirafi - 25 Link a 1000 Mbps
- 5 link a 155 Mbps via ponti ottici
- 15 link a 11 Mbps via radio a 2,4 GHz
- Tecnologie di rete da adottare
- Gigabit Ethernet (1Gbps)
- ATM (155 Mbps)
- Fast Ethernet (100 Mbps)
- IEEE 802.11b, wireless Ethernet (11 Mbps)
- Nuovi apparati di rete
- N. 1 Cisco 7606 (router di frontiera) ATM e
Gigabit Ethernet - N. 1 Cisco Catalyst 6509 (switch router di
campus) ATM e Gigabit Ethernet - N.25 Cisco Catalyst 3550 (switch router di
periferia) Gigabit e Fast Ethernet - N.5 Alcatel OMNI-5WX-PLUSATM e Fast Ethernet
8Altre connessioni
- HDSL Wind 11 link
- HDSL Telecom 5 Link
- ADSL Telecom 20 link
- CDN Telecom 40 link
- Accessi analogici/ISDN 90
- ATM Telecom a 28 Mbps accesso alla rete GARR-B
9Server di rete
10Server di rete attualmente gestiti dal Centro
Universitario di Calcolo
- n. 3 server con CPU ALPHA
- Server Oracle per procedura Contabilità (Tru64)
- Server Oracle per procedura Stipendi (Tru64)
- Server Oracle per sistema Aleph (Tru64)
- n. 1 server SPARC
- Server SilverPlatter (Solaris)
- n. 29 server con CPU INTEL (Red Hat Linux)
- Servizi di web server, mail server, proxy, dns,
dhcp server, nfs server, ftp server, log server,
mrtg server, samba server, appleshare, firewall,
IDS
11Server di rete in arrivo al Centro Universitario
di Calcolo
- n. 20 server HP/COMPAQ ML530
- 2 GB DDR SDRAM
- 2 processori Intel Xeon MP 2.4 GHz 512Kb Cache
- 2 schede di rete Ethernet 10/100/1000Mbps
- 3 hd 18GB in RAID
- n. 5 server HP/COMPAQ DL580, unità da rack
- 2 GB DDR SDRAM
- 2 processori Intel Xeon MP 1.6GHz 1Mbyte Cache
- 2 schede di rete Ethernet 10/100/1000Mbps
- 3 hd 18GB in RAID
- n. 1 SAN (Storage Area Network) HP/COMPAQ MA8000
da rack - 1 TB di spazio disco complessivo da utilizzare in
RAID - Supporto x Linux
- n. 1 Armadio rack HPCOMPAQ Rack 10000 da 42 HE
con switch e monitor flat panel 15
12IBM Z800
13Configurazione dellIBM Z800
- z/Architecture 64-bit a 1000 MHz
- 1 way Model A01 (CPU Tradizionale)
- 1 Added IFL (CPU dedicata a Linux)
- 8 GB di RAM
- 12 canali ESCON attivi
- 4 porte ethernet 10/100 Mbps
- Parallel Channel Attached Using 9034-001
- Può gestire fino a 15 partizioni logiche (PRSM)
- E una soluzione basata sul sistema operativo
zVM - 420 GB effettivi in RAID 5 di spazio disco
utilizzabili in SAN (ESS 2105)
2
14Z800 Applications Architecture
IBM Z800 System
Hypersocket
Traditional CPU
New Environment - IFL
Segreteria Studenti
zVM 4.3
zVM 4.3
VSEOther
Virtual LAN or IUCV
Linux
AFP Srv
ESCON
Linux
Linux
Linux
FTP/NFS Srv
RSCS
TCP/IP Stack
SNA Srv
TCP/IP Stack and Gateway
AFP Printers
OSA
OSA
OSA
OSA
IEEE 802.3
ESCON
SNA Ctrl
TN3270 Srv
TCP/IP Ext
TCP/IP
SNA Printers
TCP/IP
SNA Ntwrk
TCP/IP Intranet
SNA Terminals
3
15Un tool per lo storage consolidation
IBM Z800 System
Hypersocket
Traditional CPU
New Environment - IFL
Escon
Segreteria Studenti
zVM 4.3
zVM 4.3
VSEOther
Virtual LAN or IUCV
Linux
(SOD)
AFP Srv
ESCON
Linux
Linux
Linux
RSCS
FTP/NFS Srv
SNA Srv
TCP/IP Stack
TCP/IP Stack and Gateway
AFP Printers
OSA
OSA
OSA
OSA
IEEE 802.3
ESCON
SNA Ctrl
TN3270 Srv
TCP/IP Ext
TCP/IP
SNA Printers
TCP/IP
SNA Ntwrk
TCP/IP Intranet
SNA Terminals
ESS IBM 2105
FiberChannel
SCSI
4
16Progetto GARR-B per lUniversità di Palermo
17Schema delle connessioni via ponti ottici (in
tecnologia laser)
Dipartimento di Matematica
Palazzo Marina Rettorato
Dip.to di Fisica (Os.rio Ast.co)
A.O.U.P.G. Radiologia
Fibra ottica multimodale 62,5/125
Centro Univeritario di Calcolo
C.U.C. (Ingegneria DIE)
18Rete Parco DORLEANS
Gigabit!
19Collegamento con le sedi esterne
20Firewall, IDS,
21(No Transcript)
22OpenMOSIX cluster per il calcolo distribuito
23Cosè OpenMOSIX ?
- Descrizione
- Openmosix è un sistema open source utilizzabile
in ambito scientifico per la realizzazione di
cluster che sfrutta il load-balancing in ambienti
x86. E possibile con questo sistema, realizzare
calcolatori virtuali con elevata potenza di
calcolo, utilizzando risorse, CPU e RAM, di una
rete di computer. - URL
- http//www.mosix.org
24Introduzione a OpenMOSIX
- Modalità di avvio della Farm
- La farm è costituita da una serie di nodi linux
basati tecnologia x86 connessi attraverso LAN a
100/1000Mbit - Livello di Implementazione
- Linux kernel
25Architettura di OpenMOSIX
- network
- Lutente connesso e le applicazioni vedono
lintero cluster come un unico sistema locale - migrazione dei processi
- Ogni processo dutente,può migrare su ogni nodo
disponibile in modo del tutto trasparente in
qualunque istante - load balancing
- Viene effettuato un controllo continuo in rete
per ridurre al minimo le differenze di carico tra
i nodi e migrare dinamicamente i processi tra i
nodi con carico minore (sulla base delle
variazioni del carico dei nodi, velocità di
esecuzione dei processi, numero dei nodi in rete,
..) - memory sharing
- Viene presa una decisione sul processo da
migrare sulla base della memoria disponibile
sugli altri nodi e viene evitato lutilizzo della
swap memory - Kernel communication
- È sviluppato per ridurre il sovraccarico delle
comunicazioni interne del kernel e utilizza un
protocollo veloce e affidabile - Controllo decentralizzato e Autonomia
- Ogni nodo e capace di operare indipendentemente
dagli altri
26Una idea sullutilizzo di OpenMOSIX
Nodi Chiavi Ora inizio Ora fine In cluster Durata (hms)
8 100 135413 135607 Yes 154
1 100 135948 140838 No 850
8 1000 141254 143019 Yes 1725
1 1000 143337 153008 No 5631
8 10000 160644 185715 Yes 25031
1 10000 / / No /
16 1000 114930 121158 Yes 2228
16 10000 121947 161510 Yes 35523
I test sono stati effettuati generando
contemporaneamente una serie di chiavi crittate
su un nodo del Cluster
27Progetto per lintegrazione di OpenMOSIX
nelleAule Didattiche
28Progetto per Cluster Scientifico
Gigabit
Gigabit
20 Server 12 PC Aula Corsi
Facoltà di Lettere
Aula Tortorici
Gigabit
Gigabit
40 Macchine
20 20 Macchine
Aula F 100
Facoltà di Economia e Commercio
76 Macchine n28 PIV 256MB RAM1500Mhz n48
IBM256MB RAM1000Mhz
50 Macchine
29LVS cluster per il bilanciamento dei servizi di
rete
30LVS Linux Virtual Server
- Esigenze nellambito dei servizi di rete
- Gestione di servizi con carico elevato
- Continuità e alta affidabilità dei servizi
offerti - Scalabilità del sistema e manutenzione
trasparente dei server
31LVS Linux Virtual Server
Internet
FTP
WEB
IP3
IP1
IP2
MAIL
32Architettura tradizionale
Vantaggi
Svantaggi
- Semplice implementazione dellarchitettura di
rete - Configurazione standard dei servizi
- Minima adattabilità allaumentare del carico
- Scalabilità solo a livello del singolo server
- Nessuna ridondanza dei servizi
- Gestione aggiuntiva del sistema dei servizi di
backup.
33Load Balancing
Cresce luso di Internet . Come assicurare il
proprio investimento avendo sempre una continuità
del servizio, ed una efficente e crescente
performance dei propri server?
Incrementare le capacità dei Server
Server overload
Server farms
Cresce la popolarità di internet
La soluzione
Servers più potenti
34LVS Linux Virtual Server
Con il Load Balancing si incrementano le
performance dei servizi attraverso il
bilanciamento del carico su tutti i server.
L V S
FTP
WEB
MAIL
Ottimizzazione dei servizi
Servizi non bilanciati
35Director LVS
- Il director LVS offre il bilanciamento dei
carichi a livello IP in modo da far apparire più
servizi paralleli del cluster come servizi
virtuali disponibili su un singolo indirizzo
server (con un unico indirizzo IP). - Tutte le richieste vengono inviate all IP
virtuale (VIP) attribuito al director, che avrà
il compito di smistarle secondo degli algoritmi
di balancing o scheduling definiti (Round-Robin,
Weighted Round-Robin, Least Connection, Weighted
Least Connection)
36Unico Virtual Ip per tutti i servizi
Unico indirizzo ip per tutti i servizi attivi
della farm.
Virtual IP
Linux Virtual Server
IP3
IP1
IP2
IP3
Multpli Indirizzi Ip di accesso
Unico Indirizzo Ip di accesso
37LVS Linux Virtual Server
Anche se un singolo server dovesse risultare non
disponibile il servizio viene sempre erogato.
Internet
Linux Virtual Server
38LVS Linux Virtual Server
La soluzione deve essere flessibile e crescere
allaumentare della domanda il tutto deve
avvenire in una modalità trasparente,
ottenendo unottima scalabilità.
Linux Virtual Server
39LVS al Centro Univ. di Calcolo
- La finalità del progetto è di implementare
inizialmente i servizi di web, proxy, ftp, mail
e samba server sotto LVS utilizzando la soluzione
in modalità LVS-Nat. - Per assicurare la massima ridondanza verrà
installato un Director LVS di backup configurato
secondo l High-Availability Linux Project. - Inoltre tutti i server verranno collegati alle
SAN (Storage Area Network) IBM e Compaq per
laccesso ad uno spazio di disco condiviso
40Internet
Linux Virtual Server
Linux Virtual Server Backup
FTP
WEB
MAIL
SAN Storage Area Network
41Grazie a tutti