Title: Pokrocil
1Pokrocilé architektury pocítacu (PAP_15.ppt)
- Karel Vlcek, karel.vlcek_at_vsb.cz
- katedra Informatiky, FEI
- VŠB Technická Univerzita Ostrava
2Architektury príštích procesoru
- Speciální architektury - úvod
- Data-flow procesory
- Umelé neuronové síte
- Architektury s fuzzy logikou
- Kvantové pocítace
3Speciální architektury procesoru -
charakteristika
- Jako speciální architektury procesoru jsou
oznacovány všechny, které nemají spolecný základ
vytvorený von Neumannem (princetonský) nebo
architekturu vzniklou na Harvardove universite - Bývají oznacovány pojmem non-von Neuman
architectures - Zpracovávají informaci ne podle programu, ale na
základe jiného popisu algoritmu
4Speciální architektury procesoru - odlišnosti
- Speciální architektury procesoru se vyznacují
dvema základními odlišnostmi - Neobsahují cítac instrukcí
- Nepracují podle algoritmu ve forme programu
5Speciální architektury procesoru - podobnosti
- Speciální architektury procesoru se vyznacují i
podobnostmi - Mohou být podobné napríklad tím, že jejich
architektura je superskalární, závislá na
cinnosti prekladace (obdoba VLIW) - Nekteré architektury je možné prirovnat k
architekturám SIMD, až na to, že mechanismus
pusobení instrukce je nahrazen jiným mechanismem
6Data-flow architektury - úloha token
- Vykonávání algoritmu není zapsáno jako program,
ale je rízeno prítomností dat, která mají být
zpracovávána operací - Vykonávání operace je uvedeno do cinnosti tím, že
jsou privedena data, potom, co byla dokoncena
predcházející operace - Spouštení operace zajištuje tzv. token, stejne
jako povel pal vojákum na strelnici
7Druhy token
- Operace muže být spouštena dvema token, když se
jedná o operaci scítání, odecítání, násobení,
delení nebo o podobnou operaci - Operace je spuštena boolovskou promennou,
jedná-li se o prepínac nebo o filtr dat - Rozhodovací blok je realizován rovnež pomocí
token, které je predstavováno boolovskou promennou
8Práce s pametí u data-flow procesoru (1)
- Data-flow architektury mají vlastnosti, které
jsou vhodné pro realizaci paralelních struktur - Realizace není snadnou záležitostí, vyžadují
použití rychlé pameti, které jsou schopné
reagovat na požadavky více procesních elementu
9Práce s pametí u data-flow procesoru (2)
- Pri výstavbe Data-flow architektury se casto
uvažuje o principu superthreaded procesoru nebo
hyperthreaded procesoru - Pritom jsou využívány necinné casové sloty stejne
jako pri provozu linky výkonných jednotek - Tím je zvyšován paralelismus na úrovni, která je
príznacná pro replikované výkonné jednotky
data-flow procesoru
10Umelé neuronové síte (1)
- Umelé neuronové síte jsou založeny na soucinnosti
mnoha umelých neuronu
w0
i0
w1
i1
výstup
Aktivacní funkce
i2
w2
wn-1
in-1
11Umelé neuronové síte (2)
- Neurony mohou být usprádány do jednovrstvových
struktur nebo vícevrstvoých struktur - Cinnost je demonstrována na operaci komprese
obrazu pro ruzné podmínky
12Goals
- Investigation of the two types of nn (AMLP, SOFM)
- Testing Software Development
- Verify compression, possibly additional effects
of the nns - Evaluate and compare results
13Auto-associative multilayer perceptron
- Perform dimensionality reduction
- The principle of compression/decompression
14Self-Organizing feature map
- Compress using categorization
- SOFM is a quantization vector
15Competence of the Testing (simulation) software
- Design AMPLs and SOFM s
- Change architecture of nn on demand
- Adapt nns to images
- Simulate compression and decompression using nns
- Calculate SNR
16Simulation (1)
- 8bit quantization
- Investigate (objective and subjective) effects of
the blocks size and CR - Fidelity Criterion
17Simulation (2)
- 4 models of AMLP (for CR21 and 41) and 88 and
44 - 6 models of SOFM for image block sizes 88 and
44
18Results AMLP
- Adaptation to image Table only
- generalization capabilities
- Compress Ratio
- CR n / p
- smallest 21
- largest 41
- Image Block Sizes
- Optimal size is 88
19Results AMLP
- For block sizes 44 one iteration of the
adaptation is sufficient
20Results AMLP
- Faultiness of SNR (block 4x4)
-
-
- CR 41 CR 21
- SNR 27,67 dB SNR 27,67 dB
21Results SOFM
- Compress Ratio
- evaluation
- large CRs, but with higher image distortion
- it is possible to reduce the number of ID bits
and thereby increase CR - Image block sizes
- it influences on Kohonens size layer
22Results SOFM
- Effect of image block size
- blocks 88 blocks 44
23Results SOFM
24Scheme of perceptron
25The VHDL model of perceptron
- -- Neuron
- ENTITY neuron IS
- PORT (x1,x2 IN floating
- Y OUT floating)
- END neuron
- ARCHITECTURE behavioral OF neuron IS
- BEGIN
- perc PROCESS (x1, x2)
- BEGIN
- y lt 0
- IF (x1w1x2w2) gt b THEN
- y lt 1
- END IF
- END PROCESS perc
- END behavioral
26Conclusion
- Disadvantage quality of compression is lower
compared to special compression algorithms.
(Method was compared with JPEG standard) - Advantage the method allows to reconstruct
non-complete or noised data, which are caused by
transmission channel
27Test Designs Multilevel nets
28Test Designs Kohonens net
29Image Table
30Image Bird
31Image Lena
32Image Pepper
33Image Poruba town
34Literatura
- Dvorák, V. Architektura a programování
paralelních systému, VUTIUM Brno, (2004), ISBN
80-214-2608-X - Dvorák, V., Drábek, V. Architektura procesoru,
VUTIUM Brno, (1999), ISBN 80-214-1458-8 - Drábek, V. Výstavba pocítacu, PC-DIR, s.r.o.
Brno, (1995), ISBN 80-214-0691-7 - Mueller, S. Osobní pocítac, Computer Press,
Praha, (2001), ISBN 80-7226-470-2 - Pluhácek, A. Projektování logiky pocítacu,
Vydavatelství CVUT Praha, (2003), ISBN
80-01-02145-9 - Havel, V., Vlcek, K., Mitrych, J. Neural Network
Architecture for Image Compresson, IFAC PDS04,
pp. 389-394, ISBN 83-908-409-8-7