Title: Fisica Computazionale applicata alle Macromolecole
1Fisica Computazionale applicata alle Macromolecole
Reti Neurali per la predizione proteica
- Pier Luigi Martelli
- Università di Bologna
- gigi_at_biocomp.unibo.it
- 051 2094005
- 338 3991609
2Secondary structure
Covalent structure TTCCPSIVARSNFNVCRLPGTPEAIC
ATYTGCIIIPGATCPGDYAN
3Topology of membrane proteins
Topography
position of Trans Membrane Segments along the
sequence
ALALMLCMLTYRHKELKLKLKK ALALMLCMLTYRHKELKLKLKK
ALALMLCMLTYRHKELKLKLKK
4Metodi di prima generazione
- Scale di propensità
- Statistiche sulla presenza dei 20 amminoacidi
nelle differenti strutture - Considerazioni fisico-chimiche
- Ad ogni tipo di amminoacido viene attribuito un
valore di propensità ad assumere una certa
struttura
5Struttura secondaria Metodo di Chou-Fasman
Dato un insieme di strutture note, si conta
quante volte ognuno degli amminoacidi è presente
in una data struttura e si determina il grado di
indipendenza tra lamminoacido e la
struttura Esempio ALAKSLAKPSDTLAKSDFREKWEWLKLL
KALACCKLSAAL hhhhhhhhccccccccccccchhhhhhhhhhhhhhh
hhhh N(A,h) 7, N(A,c) 1, N40,
N(A)8,N(h)27 P(A,h) 7/40, P(A) 8/40, P(h)
27/40 Se amminoacido e struttura sono
indipendenti P(A,h) P(A)P(h) Il rapporto
P(A,h)/P(A)P(h) è detto propensità
6Struttura secondaria Metodo di Chou-Fasman
Dato un insieme AMPIO di esempi, si costruisce
una scala di propensità per ogni residuo e ogni
struttura
7Struttura secondaria Metodo di Chou-Fasman
Data una nuova sequenza si graficano i valori di
propensità residuo per residuo e si ricava una
predizione di struttura secondaria Q3
50/60 (numero di risposte corrette su un
insieme di test scorrelato con linsieme su cui
si è condotta la statistica)
8Struttura secondaria Metodo di Chou-Fasman
http//www.expasy.ch/cgi-bin/protscale.pl
9Eliche transmembrana Scala di Kyte e Doolittle
Si considera il coefficiente di partizione
acqua-ottanolo dei singoli amminoacidi Si
considera la frequenza di occorrenza dei singoli
amminoacidi nelle eliche transmembrana Ala
1.800 Arg -4.500 Asn -3.500 Asp -3.500
Cys 2.500 Gln -3.500 Glu -3.500 Gly
-0.400 His -3.200 Ile 4.500 Leu 3.800
Lys -3.900 Met 1.900 Phe 2.800 Pro
-1.600 Ser -0.800 Thr -0.700 Trp -0.900
Tyr -1.300 Val 4.200
10Metodi di seconda generazione GOR
La struttura assunta da un amminoacido non
dipende solo dallamminoacido stesso, ma anche da
quelli che lo affiancano Si possono estendere le
statistiche agli amminoacidi che affiancano
lamminoacido di cui si vuol predire la struttura
(tipicamente in una finestra -8 lt i lt 8 / -13 lt i
lt 13) Si ottengono dei coefficienti P(A,s,i) di
contributo dellamminoacido A, posto in posizione
i rispetto al residuo centrale, alla struttura s
per il residuo centrale
11Struttura secondaria Metodo GOR
Q3 65 (numero di risposte corrette su un
insieme di test scorrelato con linsieme su cui
si è condotta la statistica) Le posizioni
dellintorno sono considerate scorrelate tra
loro, e portano contributi indipendenti
12Un metodo più efficiente Reti neurali
Nuovo paradigma di calcolo analogia con sistema
nervoso 1) Il sistema nervoso è costituito da
neuroni 2) Il segnale elettrico fluisce nel
neurone in una direzione determinata (Principio
di polarizzazione dinamica) 3)Non esiste
continuità citoplasmatica tra le cellule ogni
cellula comunica con alcune cellule in modo
specifico attraverso le sinapsi (Principio di
specificità connettiva)
13Computazione complessa Bande di Mach
Osservate le giunzioni tra le bande
14Computazione complessa Bande di Mach
15Computazione complessa Bande di Mach
Da R. Pierantoni, La trottola di Prometeo,
Laterza (1996)
Osservate le giunzioni tra le zone bianche e nere
16Computazione complessa Bande di Mach
Stimolo ? Percetto
Intensità
Intensità
17Semplice modello di neurone retinico
Potenziale (mV)
Luce
Potenziale
Intensità incidente (fotoni/s)
Trasduttore lineare Luce-Potenziale
18Trasmissione senza connessioni
Fotoni/s
mV
19Trasmissione con inibizione laterale
Fotoni/s
Ogni neurone inibisce i suoi vicini per il 10
del suo potenziale senza inibizioni
20Computazione complessa Bande di Mach
Molte unità di calcolo uguali, ognuna delle
quali compie azioni semplici, ampiamente
interconnesse possono compiere computazioni molto
complesse. La conoscenza risiede nella
topologia delle connessioni e nella forza della
sinapsi
21Modello di neurone di McCulloch e Pitts
w pesi sinaptici q soglia di attivazione
Unità computazionale che compie la somma pesata
dei segnali in ingresso (attivazione,a) trasform
a lattivazione secondo una funzione di
trasferimento g (output, z)
22Funzioni di trasferimento
Si usano solitamente funzioni NON lineari
23Reti neurali
Wij Pesi sinaptici
Neurone i
La soglia può essere considerata come ulteriore
neurone sempre attivo e collegato con peso
sinaptico pari a -q
-q
24Reti neurali topologie
La topologia delle connessioni definisce il tipo
di rete. Ci occuperemo solo delle reti
feed-forward in cui i neuroni sono organizzati in
strati gerarchici e il segnale fluisce in una
unica direzione. Percettroni 2 soli strati
Input e Output
wij
25Reti neurali e operatori logici
1
OR w13 0.5 w23 0.5 q3 0.25
3
2
a3 0.25 z3 1
a3 0.75 z3 1
a3 0.25 z3 1
a3 -0.25 z3 0
26Reti neurali e operatori logici
1
AND w13 0.5 w23 0.5 q3 0.75
3
2
a3 -0.25 z3 0
a3 0.25 z3 1
a3 -0.25 z3 0
a3 -0.75 z3 0
27Reti neurali e operatori logici
1
NOT (1) w13 -0.5 w23 0.1 q3 -0.25
3
2
a3 -0.25 z3 0
a3 -0.15 z3 0
a3 0.35 z3 1
a3 0.25 z3 1
28Separabilità lineare
Data la funzione di trasferimento, il neurone
risulta attivato se
Lo spazio degli input è così diviso in due zone
da un iperpiano.
Se i mapping che vogliamo effettuare non sono
linearmente separabili, il percettrone è
insufficiente
29Separabilità lineare
AND
OR
NOT(1)
Non linearmente separabile un percettrone non
può risolverlo
XOR
30Reti neurali feed-forward a più strati
Neuroni organizzati a strati Ogni strato riceve
input da quello precedente e trasmette un segnale
a quello successivo
w1ij
w2ij
31w111
1 (q11)
1
XOR w111 0.7 w121 0.7 q11 0. 5 w112 0.3
w122 0.3 q12 0. 5 w211 0.7 w221 -0.7
q12 0. 5
w211
w112
1 (q21)
w121
2 (q12)
2
w221
w122
x1 0 x2 0
a11 -0.5 z11 0 a12 -0.5 z12 0
a21 -0.5 z12 0
32w111
1 (q11)
1
XOR w111 0.7 w121 0.7 q11 0. 5 w112 0.3
w122 0.3 q12 0. 5 w211 0.7 w221 -0.7
q12 0. 5
w211
w112
1 (q21)
w121
2 (q12)
2
w221
w122
x1 1 x2 0
a11 0.2 z11 1 a12 -0.2 z12 0 a21
0.2 z12 1
33w111
1 (q11)
1
XOR w111 0.7 w121 0.7 q11 0. 5 w112 0.3
w122 0.3 q12 0. 5 w211 0.7 w221 -0.7
q12 0. 5
w211
w112
1 (q21)
w121
2 (q12)
2
w221
w122
x1 0 x2 1
a11 0.2 z11 1 a12 -0.2 z12 0 a21
0.2 z12 1
34w111
1 (q11)
1
XOR w111 0.7 w121 0.7 q11 0. 5 w112 0.3
w122 0.3 q12 0. 5 w211 0.7 w221 -0.7
q12 0. 5
w211
w112
1 (q21)
w121
2 (q12)
2
w221
w122
x1 1 x2 1
a11 0.9 z11 1 a12 0.1 z12 1 a21
-0.5 z12 0
35Gli strati nascosti mappano linput in una
rappresentazione linearmente separabile
Input Output Attivazione desiderato
neuroni hidden 0 0 0 0 0 1 0 1 0 1 0 1
1 0 1 1 1 0 1 1
36Reti neurali supervisionate
Le reti neurali Feed-forward possono essere
addestrate a partire da esempi di cui sia nota la
soluzione. Funzione di errore Dato un insieme di
esempi xi il cui output desiderato di sia noto,
data una rete a parametri w, si può calcolare
lerrore quadratico sugli output della rete z (j
corre sugli output)
Addestrare la rete significa trovare i parametri
w che minimizzano tale errore algoritmi di
minimizzazione iterativi che NON garantiscono il
raggiungimento del minimo globale
37Addestramento di un percettrone
Consideriamo come funzione di trasferimento una
funzione derivabile
Dati dei parametri iniziali w
z1
x1
z2
x2
38Addestramento di un percettrone
Così
Scarto d ij
Si possono aggiornare i pesi per discesa del
gradiente
? è detta velocità di apprendimento troppo
piccola addestramento lento troppo grande si
superano i minimi Convergenza
39Esempio OR
1
w13 0 w23 0 q3 0 ?2
3
2
Esempi presentati x1 x2 d a z E Dw13 Dw13
Dq3 1 0 1 0 0.5 0.125 -0.125 0 0.125 0 1 1 0 0.5
0.125 0 -0.125 0.125 0 0 0 0 0.5 0.125 0 0 -0.125
0 0 0 0 0.5 0.125 0 0 -0.125 0.5 -0.125 -0.
125 0
40Esempio OR, Step 1
1
w13 0.25 w23 0.25 q3 0 ?2
3
2
Esempi presentati x1 x2 d a z E Dw13 Dw13
Dq3 1 0 1 0.25 0.56 0.096 -0.108 0 0.108 0 1 1 0.
25 0.56 0.096 0 -0.108 0.108 0 0 0 0 0.5 0.125 0 0
-0.125 0 0 0 0 0.5 0.125 0 0 -0.125 0.442 -
0.108 -0.108 -0.035
41Esempio OR, Step 2
1
w13 0.466 w23 0.466 q3 0.069 ?2
3
2
Esempi presentati x1 x2 d a z E Dw13 Dw13
Dq3 1 0 1 0.397 0.598 0.081 -0.097 0 0.097 0 1 1
0.397 0.598 0.081 0 -0.097 0.097 0 0 0 -0.069 0.48
3 0.117 0 0 -0.121 0 0 0 -0.069 0.483 0.117 0 0 -0
.121 0.395 -0.097 -0.097 -0.048
42Esempio OR, Step 3
1
w13 0.659 w23 0.659 q3 0.164 ?2
3
2
Esempi presentati x1 x2 d a z E Dw13 Dw13
Dq3 1 0 1 0.494 0.621 0.072 -0.089 0 0.089 0 1 1
0.494 0.621 0.072 0 -0.089 0.089 0 0 0 -0.164 0.45
9 0.105 0 0 -0.114 0 0 0 -0.164 0.459 0.105 0 0 -0
.114 0.354 -0.089 -0.089 -0.05
Continua Train
43Generalizzazione
1
w13 0.659 w23 0.659 q3 0.164 ?2
3
2
Per lesempio non presentato (1,1)? x1 x2 d a z
1 1 1 1.153 0.760
La rete ha generalizzato le regole apprese ad un
esempio ignoto
44Addestramento per reti a più stratiBack-propagati
on
Per lo strato 2, valgono le formule date per il
percettrone, con la sostituzione x ?z1,i
45Addestramento per reti a più stratiBack-propagati
on
Per lo strato 1
Definisco d 1,ij
46Addestramento per reti a più stratiBack-propagati
on
Output
Input
passo feed-forward per calcolare zl calcolo
dello scarto sugli output, ? 2l calcolo dello
scarto sui neuroni nascosti, ? j1 calcolo delle
derivate dellerrore rispetto ai pesi
47Cosa apprende una rete?
Consideriamo il caso limite ideale in cui la rete
venga addestrata su un insieme continuo di
esempi, x, ciascuno presente con probabilità P(x)
e che le soluzioni desiderate t siano associate
ad ognuno degli esempi con probabilità P(t x)
Training, a convergenza
Derivata funzionale
Lo stato di attivazione del j-esimo neurone di
output è uguale alla media delle soluzioni
associate all'input x nell'insieme di
addestramento
48Tools out of machine learning approaches
Neural Networks can learn the mapping from
sequence to secondary structure
Training
Data Base Subset
TTCCPSIVARSNFNVCRLPGTPEAICATYTGCIIIPGATCPGDYAN
General rules
EEEE..HHHHHHHHHHHH....HHHHHHHH.EEEE
Known mapping
49Reti neurali per la predizione della struttura
secondaria
Output
Input
M P I L K QK P I H Y H P N H G
E A K G
A 0 0 0 0 0 0 0 0 0 C 0 0 0 0 0 0 0 0 0 D 0
0 0 0 0 0 0 0 0 E 0 0 0 0 0 0 0 0 0 F 0 0
0 0 0 0 0 0 0G 0 0 0 0 0 0 0 0 0H 0 0 0 1 0
1 0 0 1 I 0 0 1 0 0 0 0 0 0 K 1 0 0 0 0 0 0 0
0 L 0 0 0 0 0 0 0 0 0 M 0 0 0 0 0 0 0 0 0 N
0 0 0 0 0 0 0 1 0 P 0 1 0 0 0 0 1 0 0 Q 0 0 0
0 0 0 0 0 0 R 0 0 0 0 0 0 0 0 0 S 0 0 0 0 0 0
0 0 0 T 0 0 0 0 0 0 0 0 0 V 0 0 0 0 0 0 0 0
0 W 0 0 0 0 0 0 0 0 0 Y 0 0 0 0 1 0 0 0 0
Tipicamente Input 17-23 residui Hidden neuron
4-15
50(No Transcript)
51Metodi di terza generazione linformazione
evolutiva
52The Network Architecture for Secondary Structure
Prediction
The First Network (Sequence to Structure)
53The Network Architecture for Secondary Structure
Prediction
The Second Network (Structure to Structure)
54The Performance on the Task of Secondary
Structure Prediction
55Combinando differenti reti Q3 76/78
56Secondary Structure Prediction
Dalla sequenza
TTCCPSIVARSNFNVCRLPGTPEAICATYTGCIIIPGATCPGDYAN
Alla struttura secondaria
E alla probabilità di corretta predizione
7997688899999988776886778999887679956889999999
57SERVERS
PredictProtein Burkhard Rost (Columbia
Univ.) http//cubic.bioc.columbia.edu/predictprot
ein/ PsiPRED David Jones (UCL) http//bioinf.cs
.ucl.ac.uk/psipred/ JPred Geoff Barton (Dundee
Univ.) SecPRED http//www.biocomp.unibo.it
58Segmenti Camaleonte
QEALEIA
59We extract
from a set of 822 non-homologous
proteins (174,192 residues)
2,452 5-mer chameleons 107 6-mer chameleons
16 7-mer chameleons 1 8-mer chameleon
The total number of residues in chameleons is
26,044 out of 755 protein chains (15)
60Prediction of the Secondary Structure of
Chameleon sequences with Neural Networks
61The Prediction of Chameleons with Neural Networks
62Altri predittori a reti neurali
- Struttura secondaria
- Siti di iniziazione del folding
- Topologia delle proteine di membrana
- Stato di legame delle cisteine
- Mappe di contatto delle proteine
- Superfici di contatto di strutture proteiche
63Predizione dello stato di legame delle cisteine
Tryparedoxin-I from Crithidia fasciculata (1QK8)
MSGLDKYLPGIEKLRRGDGEVEVKSLAGKLVFFYFSASWCPPCRGFTPQL
IEFYDKFHES KNFEVVFCTWDEEEDGFAGYFAKMPWLAVPFAQSEAVQK
LSKHFNVESIPTLIGVDADSG DVVTTRARATLVKDPEGEQFPWKDAP
Free cysteines
Cys68
Disulphide bonded cysteines
Cys40
Cys43
64Percettrone (con input a profilo di sequenza)
Legata
Non Legata
NGDQLGIKSKQEALCIAARRNLDLVLVAP
65Cosa è memorizzato nei pesi sinaptici?
66Struttura sintattica
Free states
Bonded states
67Un possibile cammino
68Un possibile cammino
P(seq) P(1 Begin) ? P(C40 1) ? ...
69Un possibile cammino
P(seq) P(1 Begin) ? P(C40 1) ? ...
? P(2 1) ? P(C43 2) ? ..
70Un possibile cammino
P(seq) P(1 Begin) ? P(C40 1) ? ...
? P(2 1) ? P(C43 2) ? ..
? P(4 2) ? P(C68 4) ? ..
71Un possibile cammino
Begin
1
2
3
4
P(seq) P(1 Begin) ? P(C40 1) ? ...
? P(2 1) ? P(C43 2) ? ..
? P(4 2) ? P(C68 4) ? .. ?
P(End 4)
End
72I 4 possibili cammini
73(No Transcript)
74Predizione della Triparedoxina
75Predizione della Triparedoxina
76Predizione della Triparedoxina
77Performance del predittore
Neural Network
Hybrid system
B cysteine bonding state, Fcysteine free state.
WD whole database (969 proteins, 4136
cysteines) RD Reduced database, in which the
chains containing only one cysteine are removed
(782 proteins, 3949 cysteines).
- Martelli PL, Fariselli P, Malaguti L, Casadio R.
-Prediction of the disulfide bonding state of
cysteines in proteins with hidden neural
networks- Protein Eng. 15951-953 (2002)