Nuove Tecnologie: Trigger, Computing - PowerPoint PPT Presentation

About This Presentation
Title:

Nuove Tecnologie: Trigger, Computing

Description:

Title: Nessun titolo diapositiva Author: Luca Lista Last modified by: Luca Lista Created Date: 10/20/1997 9:09:35 AM Document presentation format – PowerPoint PPT presentation

Number of Views:44
Avg rating:3.0/5.0
Slides: 27
Provided by: Luca226
Category:

less

Transcript and Presenter's Notes

Title: Nuove Tecnologie: Trigger, Computing


1
Nuove TecnologieTrigger, Computing Software
  • Massmimo Caccia, Luca ListaUni. Insubria INFN
    Milano, INFN, Napoli .

2
Agenda del 12 Aprile
Tecniche di trigger di primo livello ad LHC Francesca Pastore
Trigger di alto livello ad LHC Simone Gennai
Esperienza sul calcolo di CDF Gabriele Compostella
Il modello di calcolo di Atlas Alessandro De Salvo
Il modello di calcolo di CMS Daniele Bonacorsi
Infrastrutture di calcolo su GRID in Italia Vincenzo Miccio
Tecnologie software per l'analisi off-line Leonardo Carminati
3
Trigger di L1 HLT ad LHC
4
LHC Event Rates
s rate _at_ nominal LHC
luminosity
? L 1034
Pile-up
Machine Rate 40 MHz
On-line trigger selection Select 14x105 Decide
every 25 ns!
Acceptable storage rate 100-200 Hz
1 anno 2??109 collisioni 2 PByte
Off-line analysis
Signals
Particle mass (GeV/c2)
5
Atlas/CMS Trigger overview
  • Different division of resources for processors
    and bandwidths

(200 GB each)
(Event builder) 500 Gb/s
Rate
Gbit/s
(Event filter)
Event 1 MB (1 TB/day)
PetaB archive
ATLAS 3 physical levels
Region of interest 2/event
HLT partial event reconstruction
6
L1 Trigger Table (Atlas)
  • Selezione su uno o pochi oggetti fisici di chiara
    segnatura
  • Le soglie possono dipendere dalle condizioni di
    luminosità
  • Selezione raffinata in HLT con la ricostruzione
    tipo off-line

25 GeV cut 95 at 31 GeV, 1.9 kHz expected
60 100 140 200
High luminosity trigger table
7
Trigger del Tau a CMS (H???, )
Pattern calorimetrici (L1)
Isolamento (HLT) ricostruzione regionalee
parziale delle tracce
Alcuni aspetti inizialmente trascurati potrebbero
essere molto importanti Es. decodifica delle
informazioni del tracker solo a livello regionale?
Rate finale lt 3 Hz
8
Modelli di calcoloCDF, Atlas, CMS
9
Volume di dati di CDF
By FY07
By FY09
Double data up to FY06
Double data up to FY07
9
)
-1
8
30 mA/hr
oggi
7
25 mA/hr
Integrated Luminosity (fb-1)
6
oggi
20 mA/hr
5
15 mA/hr
4
3
9
2
1
0
9/30/03 9/30/04 9/30/05 9/30/06 9/30/07
9/30/08 9/30/09
5.5
2
oggi
23
20

Collected Data
9
Estimated CPU needs
10
Evoluzione del calcolo di CDF
  • Modello di calcolo inizialmente pensato per un
    ambiente centralizzato (FNAL)
  • Successivamente evoluto verso un modello
    distribuito (compreso CNAF)
  • Uso di GRID integrato nel sistema in corso
    dopera
  • Superati autonomamente da CDF una serie di limiti
    di GRID dovuti alla fase di sviluppo
  • Es. protezione da job falliti (pilot job)

11
CDF Usage of LCG resources
CDF
Sites accessed trough LcgCAF
INFN-Padova
Italy
INFN-Catania
Italy
INFN-Bari
Italy
INFN-Legnaro
Italy
INFN-Roma1
Italy
INFN-Roma2
Italy
INFN-Pisa
Italy
FZK-LCG2
Germany
IFAE
Spain
PIC
Spain
IN2P3-CC
France
UKI-LT2-UCL-HE
UK
Liverpool
UK
12
Uso di GRID ad LHC
  • CDF può usare la GRID
  • approfittando delle risorse quando non sono usate
    da LHC
  • LHC DEVE usare la GRID
  • Modello di calcolo disegnato come distribuito sin
    dallinizio
  • La tecnologia GRID non può fallire!

13
The ATLAS Computing Model
Modello gerarchico a Tier
Pb/sec
Event Builder
10 GB/sec
Event Filter159kSI2k
  • Some data for calibration and monitoring to
    institutes
  • Calibrations flow back

450 Mb/sec
  • Calibration
  • First processing

T0 5MSI2k
Tier 0
MSS
300MB/s/T1 /expt

Tier 1
Spanish Regional Centre (PIC)
  • Reprocessing
  • Group analysis

US Regional Centre
UK Regional Centre (RAL)
Italian RegionalCentre (CNAF)
MSS
?622Mb/s
Tier 2
Tier2 Centre 200kSI2k
Tier2 Centre 200kSI2k
Tier2 Centre 200kSI2k
  • Analysis
  • Simulation

?622Mb/s
Average Tier 2 has 25 physicists working on one
or more channels Roughly 3 Tier 2s should have
the full AOD, TAG relevant Physics Group
summary data Tier 2 do bulk of simulation
Institute 4
Institute 3
Institute 2
Institute 1
Physics data cache
100 - 1000 MB/s
Desktop
Workstations
14
CMS Computing model
Il problema della gerarchia è stato superato nel
modello di calcolo di LHC
15
Infrastruttura GRID oggi in Italia
  • più di 40 centri di ricerca coinvolti
  • le risorse sono raggiungibili attraverso servizi
    specifici per ciascuna VO
  • la maggior parte di essi (30) sono coinvolti
    anche a livello internazionale (EGEE/LCG)
  • gli altri sono accessibili attraverso servizi di
    grid su scala nazionale

16
Uso di GRID da parte di LHC
Production Analysis jobs over last 3months
17
Trasferimento dati 2006/2007
CMS CSA06 1 PB in 1 months to numerous sites
CMS LoadTest 2007 2.5 PB in 1.5 months to
numerous sites
18
La vita di un Job su GRID
  • Chi si avvicina per la prima volta allanalisi in
    LHC può aver bisogno di uniniziazione
  • per quanto esistano layer software intermedi

19
Modelli di Analisi
20
Punti chiave di un modello di analisi
  • Modello di calcolo centralizzato o distribuito
  • Formato ed accessibilità dai dati
  • Possibilità di aggiungere nuovi contenuti ai dati
    dellevento (User Data)
  • Accessibilità interattiva (via ROOT)
  • Frameworks di analisi vs analisi ROOT-based
    privata
  • portabilità e condivisione del codice di analisi
    e uso di tools comuni

21
Formati dati Data Tiers
22
Lesperienza di BaBar
  • E stata la prima esperienza reale di un
    esperimento che funziona in factory mode
  • Primo modello di calcolo (CM1)
  • Difficoltà ad accedere ai dati Reco oltre agli
    AOD
  • ( Objectivity a parte )
  • Uso sub-ottimale di risorse di CPU e disco
    impegnate in produzione di dati in formati
    specifiche per lanalisi (ntuple)
  • Scarsa connessione tra codici di analisi e
    ricostruzione
  • difficoltà a trasportare codice di analisi come
    tool comune
  • Computing Model II (CM2, 2003)
  • Migliore integrazione tra Reco e AOD (mini/micro)
  • Skim di analisi prodotti in modo centralizzato
    e poi distribuiti
  • Uso ottimizzato delle risorse
  • Aggiunta agli AOD di User Data
  • Accesso interattivo ai dati

Usati limitatamente in BaBar, ma con
grossepotenzialità
23
Il modello di analisi di CMS
CMS ha raccolto appieno lesperienza di BaBar e
CDF
  • gSystem-gtLoad("libFWCoreFWLite")
  • AutoLibraryLoaderenable()
  • TFile f("reco.root")
  • Events.Draw("tracks.phi() tracks.outerPhi()
    tracks.pt()", "tracks.pt()lt10")
  • Tutti i formati, dai RAW data agli AOD e anche i
    dati definiti dall'utente sono accessibili sia
    in batch (framework) che in interattivo (ROOT).
  • L Event Data Model può essere usato come
    formato finale di analisi niente ntuple!

??
pt
  • Interfacce uniformi agli oggetti ricostruiti
    ovunque (reco/aod) dovunque si definisce
    pt() (non getPt()) per accedervi
  • Luniformità permette di scrivere algoritmi
    generici (selettori, filtri) validi per
    oggetti diversi via templates in modo molto
    semplice.
  • Un modello a Candidati Particella rende omogenei
    una serie di strumenti di alto livello
    (analisi combinatoriale, constrained fit, etc.)

24
Il modello di analisi di Atlas
  • AOD Building
  • Copy select info
  • Slim make lighter objects.
  • Thin (eg remove some truth particles).

Athena
  • 1. Framework Analysis
  • Recalibrate
  • Select Obj/Remove overlap
  • Complicated Tasks
  • Calculate DPD

2 Stage User Analysis
Athena/EV
Athena/EV
ROOT
DPD (Ntuple)
  • 2. Out-of-Framework Analysis
  • Further Analysis
  • Make plots

El_p_T Ph_p_T Mu_p_T
El_eta Ph_eta Mu_eta
MissingEt Top_mass M_eff
Event Data User Data
ROOT
25
Prossime evoluzioni in Atlas
  • Nel modello di analisi attuale AOD non sono
    leggibili da ROOT
  • ATLAS ha scelto un modello per sostenere la
    schema evolution basato sulla separazione
    Transient Persistent difficile da esportare in
    ROOT
  • D0 ha già evidenziato limiti di questo approccio
    per lanalisi
  • Possibilità di leggere gli AOD da ROOT accesso
    alle classi transienti a partire da quelle
    persistenti.
  • I vantaggi sono evidenti
  • No ntuple centralizzate lAOD è già ROOT
    readable (CM è al sicuro).
  • Lutente può usare direttamente ROOT senza usare
    il framework
  • Oppure usare il framework e avere molti
    benefici
  • Costruire DPD più semplici e usare un set di
    tool comuni
  • Modello di analisi elegante dove input/output
    sono unificati simile a CMS e BaBar mantenendo la
    schema evolution
  • ESD?Athena?AOD
  • AOD?Athena?DPD
  • AOD or DPD?ROOT?Plots
  • DPD?Athena?DPD

26
Conclusioni
  • La complessità degli esperimenti LHC si riscontra
    anche in trigger, computing e software
  • Il modello di calcolo di LHC dipende criticamente
    dal funzionamento di GRID
  • Ed in Italia è fondamentale il ruolo del Tier1 al
    CNAF
  • CDF ci ha mostrato che si può usare GRID (e il
    CNAF) efficacemente per fare analisi
  • Il software è in continua evoluzione, con rapide
    ri-ingegnerizzazioni e sostituzioni di parti
    fondamentali
  • CMS 2005-2006 Framework, Event Data Model, Data
    Management
  • ATLAS ? Importanti evoluzioni nel modello AOD
  • Lintegrazione di tutti i componenti è un aspetto
    fondamentale per scoprire rapidamente problemi
  • I Data/Service Challenge sono test importanti
    dellintera catena
Write a Comment
User Comments (0)
About PowerShow.com