...

System on Chip : Architetture di calcolo basate su logica

by user

on
Category: Documents
17

views

Report

Comments

Transcript

System on Chip : Architetture di calcolo basate su logica
Scuola Politecnica e delle Scienze di Base
Corso di Laurea in Ingegneria Informatica
Elaborato finale in Calcolatori Elettronici I
System on Chip : Architetture di calcolo
basate su logica riconfigurabile
Anno Accademico 2014/2015
Candidato:
Antonio Grimaldi
matr. N46/001504
Qualsiasi cosa ti dedichi amore , passione , rispetto, amicizia e felicità può essere
considerato una famiglia. La dedica va a tutti questi valori , sperando mi
accompagnino per sempre nel corso della vita.
Indice
System on Chip : Architetture di calcolo basate su logica riconfigurabile ..........................................I
Indice.............................................................................................................................................. III
Introduzione ..................................................................................................................................... 5
Capitolo 1: System on Chip ............................................................................................................. 7
1.1 Introduzione ........................................................................................................................... 7
1.2 Perchè usare i SOC ? .............................................................................................................. 8
1.3 Xilinx e Altera........................................................................................................................ 9
Capitolo 2 : Architettura ARM ...................................................................................................... 12
2.1 Introduzione ad ARM .......................................................................................................... 12
2.2 Caratteristiche Architettura ARM ........................................................................................ 12
2.3 ARM Cortex-A9 .................................................................................................................. 15
2.3.1 Snoop Control Unit ....................................................................................................... 16
2.3.2 Accelerator Coherency Port .......................................................................................... 17
2.3.3 Generic Interrupt Controller.......................................................................................... 17
2.3.4 Neon Data Engine ......................................................................................................... 18
2.3.5 Floating Point Unit ........................................................................................................ 18
2.3.6 L1 Cache ....................................................................................................................... 18
2.4 Cortex-A50 Series ................................................................................................................ 18
Capitolo 3: Architettura dei System on Chip ................................................................................. 21
3.1 FPGA ................................................................................................................................... 21
3.1.1 Tecnologia di Sviluppo ................................................................................................. 22
3.1.2 Architettura fisica di una FPGA.................................................................................... 22
3.1.3 Flusso di Progetto.......................................................................................................... 23
3.1.4 FPGA vs ASIC .............................................................................................................. 25
3.2 Hard Processor System ........................................................................................................ 26
3.2.1 Micontroller Processor Unit Subsystem ....................................................................... 27
3.2.2 Flash Memory Controller .............................................................................................. 29
3.2.3 SDRAM Controller Subsystem..................................................................................... 29
3.2.4 Phase Locked Loop (PLL) ............................................................................................ 32
3.2.5 On-Chip Memory .......................................................................................................... 33
3.3 Periferiche di supporto e di interfaccia ................................................................................ 33
3.3.1 DMA ............................................................................................................................. 33
3.3.2 SPI ................................................................................................................................. 34
3.3.3 I2C................................................................................................................................. 34
3.3.4 UART ............................................................................................................................ 35
3.3.5 CAN .............................................................................................................................. 35
3.4 Sistema di Interconnessione ................................................................................................. 35
Capitolo 4 : Zynq-7000 .................................................................................................................. 38
4.1 Introduzione ......................................................................................................................... 38
4.2 Architettura di Zynq-7000 ................................................................................................... 39
4.2.1 Application Processor Unit ........................................................................................... 39
4.2.2 FPGA ............................................................................................................................ 41
Conclusioni .................................................................................................................................... 43
Bibliografia .................................................................................................................................... 43
Introduzione
Il tema principale dell'elaborato è il Sistem on Chip (SOC) , in particolare sull'architettura
generale, nell'approfondimento delle componenti principali e lo studio di una famiglia di
dispositivi leader nel mercato. Se volessimo dare una prima definizione veloce e molto
semplificativa, un SOC è un circuito integrato che in un solo chip contiene un sistema
completo, composto da unità di elaborazione, memorie , periferiche e la logica
configurabile. Ma perchè questi sistemi sono diventati così importanti ? Il sistema
completo di cui parlavo prima, risiede tutto in un chip dalle dimensioni poco più grandi di
una classica CPU. Le ridotte dimensioni di questi sistemi , ed ovviamente la loro
caratteristica di avere un ridotto dispendio energetico, li rende perfetti per i sistemi
embedded. Inoltre nella trattazione vedremo che la produzione di questi circuiti integrati
con logica configurabile è estremamente più economica di quella dei circuiti ad
applicazione specifica. Il basso costo e il basso consumo li rendono perfetti per i
dispositivi portatili che utilizziamo ogni giorno , quali smartphone e tablet. Con il passare
del tempo sono convinto che diventeranno sempre più importanti , e credo guardando in
ottica futura che stiamo osservando un trend evolutivo , nel quale passeremo dai classici
sistemi con unità di elaborazione general purpose ai SOC. Dunque i SOC sono un
evoluzione , un passo in avanti ; basta pensare che gia Intel e AMD (che non hanno
bisogno di presentazioni) hanno prodotto , gia qualche anno fa , CPU con motore grafico,
controllore di memoria e PCI Express nello stesso chip per personal computer (Tecnologia
Fusion).Il primo a pensare un architettura in questo senso fu Intel gia nel lontano 2000 con
il progetto "Timna" . Timna era destinato a PC economici , con l'obiettivo ambizioso di
integrare controller di memoria e grafico sullo stesso chip. Ma le necessità del mercato
costrinsero Intel a virare sul primo "Pentium M" processore con la classica architettura
x86 di Intel costruito per pc portatili. Intel non abbandonò completamente il progetto e le
continue ricerche portarono a presentare le prime architetture di questo tipo per sistemi
embedded. Ad oggi sono moltissimi i sistemi SOC disponibili e le applicazioni che li
utilizzano stanno crescendo in maniera vertiginosa.
Samsung ad esempio ha una lunga storia di produzione di SOC , sia per i propri dispositivi
sia per quelli degli altri . Apple per moltissimo tempo ha progettato i propri dispositivi
facendoli produrre da Samsung , per poi passare invece alla TSMC detta anche Taiwan
Semiconductor , che è la stessa società che collabora con Altera. Potrei continuare per
moltissimo tempo elencando SOC molto conosciuti come Snapdragon di Qualcomm ,
Tegra di Nvidia e NovaThor di ST-Ericsson. Ma le applicazioni non si limitano ai
dispositivi mobili , grazie alle sue caratteristiche, come si vede dalla tabella seguente ,
potrà essere usato praticamente ovunque in prospettiva futura.
5
Durante la trattazione sentiremo più volte parlare di SOC ARM-based, quindi riserverò un
piccolo spazio per quella che è sicuramente l'architettura più usata in assoluto nei sistemi
embedded.
Durante il primo capitolo vedremo l'architettura generale dei System on Chip ,
soffermandoci sulle caratteristiche che lo rendono una scelta vincente per moltissime
applicazioni. Daremo inoltre qualche cenno su due società rivali del mercato , e senza
dubbio le regine per quanto riguarda le FPGA, che sono Xilinx e Altera.
Nel secondo capitolo cercherò di descrivere in maniera abbastanza semplice le
caratteristiche dell'architettura ARM . Daremo uno sguardo all'interno dell'architettura
ARM Cortex-A9 poichè utilizzata nella famiglia Zynq-7000 ,che descriverò nell'ultimo
capitolo, e vedremo la serie ARM Cortex-A50 (ultimi arrivati sul mercato) , spiegando
alcuni parametri descrittivi e come effettuare un semplice confronto prestazionale.
Nel terzo capitolo entreremo nel dettaglio dell'architettura interna, vedendo parte per parte
come sono fatte le FPGA e l'Hard Processor System che compongono il System on Chip.
Nel quarto capitolo vedremo una famiglia di dispositivi di Xilinx, la Zynq-7000,
studiandolo sulla base delle componenti descritte nel capitolo 3 .
6
Capitolo 1: System on Chip
I System on Chip (SOC) sono dei circuiti integrati che integrano insieme quello che può
essere considerato a tutti gli effetti un intero sistema. Questo sistema lega insieme un Hard
Processor System , periferiche , controllori di memoria e la tecnologia FPGA tramite un
complesso e veloce sistema di interconnessione.
1.1 Introduzione
Dall'immagine successiva osserviamo ,in piccolo a sinistra, una struttura molto generale di
un SOC , composta da FPGA, HPS, controllore di memoria e altre periferiche come un
ricetrasmettitore.
A destra invece vediamo più nel dettaglio come è composto l'Hard Processor System .
• La FPGA fornisce la flessibilità della logica riprogrammabile combinata con il
7
risparmio in termini di costi ad essa dovuto.
• Hard Memory Controller , è un componente fondamentale per le performance del
sistema. Vedremo che è il componente che inizializza , refresha, gestisce e
comunica con i dispositivi di memoria esterni. Spesso integra un sistema ECC per
incrementare l'affidabilità per applicazioni critiche.
• Ricetrasmettitore , buffer full duplex per la trasmissione e ricezione dei dati
• Hard PCIe , per l'interconnessione interna delle periferiche ad alta velocità.
1.2 Perchè usare i SOC ?
Le caratteristiche viste fino ad ora ci permettono di capire che l'utilizzo che può essere
fatto di questa tecnologia è estremamente ampio. Ma perchè usarla?
• Incrementare performance di sistema
Combinando la flessibilità di una FPGA con un architettura ARM è possibile
raggiungere prestazioni molto alte . La stretta integrazione permette un
interconnessione che non sarebbe possibile in un architettura a chip separati.
• Aumentare l'affidabilità
Sono solitamente garantite una varietà di componenti hardware o software per
incrementare l'affidabilità del sistema e/o sicurezza. Ad esempio come gia
accennato è quasi sempre presente un ECC che rende il sistema più resistente e
sicuro quando si presentano errori di memoria o dati corrotti. Vedremo inoltre
essere presente un controllore di memoria, che garantisce anche protezione ad
accessi in zone della memoria non consentite. Sono presenti inoltre molto spesso
sistemi sofisticati di criptazione basati su algoritmi quali Advanced Encryption
Standard (AES) , Secure Hash Algorithm (SHA) o RSA.
• Incrementare la flessibilità
Le SOC permettono di avere ampia flessibilità sul design , permettendone un
ampio utilizzo in tantissime applicazioni. Grazie alla FPGA , quindi alla logica
programmabile, permettono un veloce adattamento a cambi di protocolli o di
variazioni di algoritmi implementativi tramite una semplice riprogrammazione.
Ci sono inoltre moltissimi componenti che si può scegliere se integrare o meno
nel progetto a seconda dell'obiettivo che vogliamo raggiungere.
• Costi di sistema molto bassi
Come gia detto le SOC hanno la caratteristica fondamentale di avere consumi
molto ridotti. Molto del merito va all'architettura ARM utilizzata nella maggior
parte dei sistemi embedded e alla gestione ottimale delle risorse FPGA .
• Facilità di Debug
I progettisti spesso mettono a disposizione una serie di tool di facile utilizzo per
programmare la FPGA , per effettuare il debug , per la simulazione, il modelling
e in generale per dare agli utenti gli strumenti adatti per la realizzazione di un
progetto.
8
1.3 Xilinx e Altera
Dando uno sguardo ad una ricerca del 2010 , Altera e Xilinx erano e sono ancora oggi le
regine incontrastate del mercato delle FPGA. Insieme queste due compagnie coprono circa
il 90% dell'intero mercato , con un ricavo complessivo superiore ai 4.5 Bilioni di dollari e
una capitalizzazione azionaria di 20 Bilioni. Per questo motivo ci concentreremo
principalmente su queste due grandi famiglie che producono anche SOC.
9
Altera fondata nel 1983 con sede in California , produce prodotti per tutti i tipi di fasce di
mercato . Rispettivamente le famiglie Cyclone, Arria e Stratix per fasce basse, medie e alte
rispettivamente. Negli ultimi anni Altera ha fatto molti passi avanti guadagnando parecchi
punti percentuali sul mercato . Nel 2013 ha rilasciato la FPGA Stratics 10 con tecnologia
semiconduttore a 14nm tri-gate.
Xilinx fondata nel 1984 anch'essa con sede a Son Jose in California , è senza alcun dubbio
la regina del mercato per le FPGA . Dopo aver dominato il mercato di fascia media-bassa
per molti anni con la serie Spartan ha recentemente rilasciato la serie 7 FPGA che con
tecnologia semiconduttore a 28nm . Artex-7 e Kintex-7 ricoprono la fascia mediobassa,mentre Virtex-7 e ancora Virtex-Ultrascale coprono la fascia alta. In particolare la
serie Ultrascale e dopo Ultrascale+ hanno ridotto sensibilmente la tecnologia a
seminconduttore utilizzata , passando da 28nm (Virtex-7) a 20nm (Virtex-Ultrascale)
prima , e 16nm (Virtex-Ultrascale+) dopo.
Senza entrare troppo nel dettaglio riguardo le FPGA , vediamo un primo confronto tra le
SOC di fascia bassa in questa tabella in basso:
10
Al termine della trattazione dovremmo essere in grado di saper interpretare la maggior
parte di questi campi indicati.
11
Capitolo 2 : Architettura ARM
Indica una famiglia di microprocessori RISC (Reduced instruction set computer) a 32 o 64
bit sviluppata dalla ARM Holdings . Questa architettura grazie alle sue caratteristiche è la più
utilizzata nei sistemi embedded e noteremo essere un nome ricorrente per i Sistem on
chip che vedremo.
2.1 Introduzione ad ARM
ARM sta per Advanced RISC Machines , ed è proprio la linearità e semplicità dei
processori RISC che predilogono un set di istruzioni ridotto ma che garantiscono
prestazioni molto elevate a renderne un'architettura di punta. L'architettura ARM riesce a
combinare prestazioni eccezionali ad un consumo bassissimo ed è proprio per questa
ragione che si stima che il 75% dei dispositivi embedded su scala globale si affidi ad essa.
Il set di istruzioni molto piccolo richiede di adoperare un numero di transistor molto
ridotto rispetto al normale, e questo consente con le tecnologie in sviluppo, di
incrementare le prestazioni di progetto in progetto , rendendo addirittura il dispositivo più
piccolo. L'altra faccia della medaglia sono le architettura CISC , dotate di un set di
istruzioni estremamente complesso , in cui quasi ogni istruzione prevede la possibilità di
accesso alla memoria con metodi di indirizzamento molto complessi. I progettisti si resero
conto che evitare troppi accessi alla memoria era necessario per ottenere prestazioni più
elevate , inoltre i programmatori tendevano quasi sempre ad ignorare le istruzioni
complesse messe loro a disposizione , prediligendo uno stile semplice e lineare.
2.2 Caratteristiche Architettura ARM
Arm possiede alcune caratteristiche che la rendono un architettura molto particolare . E' un
architettura di tipo load/store , con set di istruzioni ortogonali e pipilened a 5+ stadi.
•
Architettura Load/Store :
Le istruzioni di elaborazione dati lavorano solo sui registri interni della CPU , le
uniche istruzioni che possono accedere alla memoria sono Load ,per caricare un
12
•
•
dato dalla memoria ad un registro interno , e Store per passare un dato da un
registro interno alla memoria.
Set di istruzioni ortogonale:
Ogni istruzione può utilizzare tutti i registri indipendentemente (tranne quelli
speciali come IP) . E' stato dimostrato che un set di istruzioni ortogonali risulta più
efficiente.
Pipeline a 5 stadi (o anche più) con Cache Istruzioni e Cache Dati separate :
o Lettura : Legge un istruzione
o Decodifica : L'istruzione letta viene decodificata , vengono letti gli
operandi . Si possono leggere fino a 3 operandi per istruzione dato
che viene introdotta l'istruzione MAC (Multiple and Accumulate
X=X*(A+B))
o Esecuzione : L'ALU esegue l'operazione e genera il risultato (o un
indirizzo se l'operazione è di Load/Store)
o Buffer/Data : Si accede alla memoria. Operazione utile solo per
Load/Store
o Write-back : il risultato viene scritto nel registro destinazione
La tecnica di progettazione mediante pipeline sfrutta parallelismo tra fasi diverse di
istruzioni consecutive. Ovvero se istruzioni consecutive sfruttano unità funzionali diverse
dell'elaboratore (ALU , Memoria , Registri). Quindi non incrementa la velocità di
esecuzione di una singola istruzione , ma abbassa il tempo totale di esecuzione di un
gruppo di istruzioni (throughput).
Questo cambiamento è dovuto al fatto che Load/Store richiedono prima di calcolare
l'indirizzo e poi l'accesso alla memoria (Se sono presenti salti condizionati potrebbero
richiedere anche qualche ciclo in più) . Buffer/Data compie lavoro utile solo nelle
operazioni di load/store permettendo l'accesso alla memoria senza dover svuotare la
pipeline e dover ripetere il ciclo.
Ci sono comunque criticità , se due istruzioni sfruttano la stessa unità funzionale , o la si
replica o si aspetta.
Esistono anche cicli a 8/15/15+ stadi per fornire prestazioni più elevate a programmi di
fascia più alta.
Il modo di esecuzione può essere normal mode o super mode. La prima è la classica user
mode in cui il sistema operativo garantisce protezione e isolamento dalle applicazioni. La
seconda solitamente si divide ulteriormente in altre modalità più specifiche , considerando
che l'architettura è fatta per sistemi embedded e deve affrontare vari tipi di imprevisti dati
da eventi esterni. Un esempio sono System Mode per eseguire compiti privilegiati del
sistema operativo o Abort Mode se si tenta un accesso alla memoria non autorizzato.
13
La architettura ARM adotta una soluzione fortemente modulare , estendibile con diversi
coprocessori che devono però rispettare i protocolli di comunicazione con la CPU .
L'aggiunta di coprocessori permette di incrementare le funzionalità e il set di istruzioni.
Segnali di controllo sono:
• cpi : dalla CPU a tutti i coprocessori . La CPU identifica un istruzione e vuole che uno
dei coprocessori la esegua.
• cpa : Dal coprocessore alla CPU , quando un coprocessore non è in grado di eseguire
quell'istruzione.
• cpb : Dal coprocessore alla CPU , quando un coprocessore è gia occupato.
L'istruzione verrà eseguita da un coprocessore se i segnali cpa e cpb sono disattivati. In
caso contrario sarà il processore ARM a valutare se scartare l'istruzione (cpa attivo per
tutti i coprocessori : non è un istruzione conosciuta dall'architettura) o attendere (cpb
attivo per qualche coprocessore : so eseguire quell'istruzione ma sono occupato).
E' importante far presente che un coprocessore è diverso da un core. Un core è un unità
elaborativa della CPU interna al package e possiede lo stesso set di istruzioni di tutti gli
altri core. Il coprocessore sono componenti esterni con proprio set istruzioni per estendere
le funzionalità del sistema, come la GPU per processo grafico o la FPU per il calcolo in
virgola mobile.
Un'altra caratteristica che rende unica un'architettura ARM è la gestione dei salti
condizionati che viene eseguito attraverso una soluzione chiamata "esecuzione
condizionale". L'esecuzione di ogni istruzione diventa condizionale ; se la condizione è
rispettata l'istruzione viene eseguita, altrimenti viene convertita in un nop ( No operation).
E' il confronto iniziale a spostare automaticamente il valore della condizione nel condition
register e le istruzioni di loro natura sono condizionate . Nell'esempio nel caso di
esecuzione condizionale l'operazione di move è condizionata da un bit nel condition
register.
Esempio :
14
• C:
if(a>10) return 0;
else return 1;
• Salto Condizionato (Supponendo numero da controllare in
r0):
cmp r0, #10
ble L1 (se è minore o uguale di , salta a L1)
mov r0, #0
jmp L2
L1 : mov r0 , #1
L2 : ...
• Esecuzione Condizionale
cmp r0,#10
movgt r0,#0
movle r0,#1 (viene eseguita solo una delle due ma vengono
lette entrambe)
E' importante specificare che l'esecuzione condizionale non in tutti i casi migliora le
prestazioni.
2.3 ARM Cortex-A9
L'architettura ARM è presente come detto nel 75% dei dispositivi embedded. I produttori
che intendono progettare una CPU che si basi sull'architettura ARM , devono acquistare
una licenza . Le varie architetture vengono chiamate Cortex e si differenziano tra loro per
molti fattori. ARM Cortex-A9 era il dispositivo di punta di qualche anno fa , ed è
utilizzato in moltissime SOC , come Xilinx Zynq-7000 e Altera Cyclone V. Questo
processore offre eccezionali funzionalità con un ridottissimo consumo energetico . E'
dotato di un processore ARM quad-core ad altissime prestazioni che implementa
pianamente l'architettura ARMv7.
E' stato stimato raggiunga 2.50 Dhrystone MIPS/MHz per core. Dhrystone è un
programma di benchmark molto famoso sviluppato da Reinhold Weicker nel 1984 ,
divenuto uno standard per la valutazione delle prestazioni delle CPU. La sua analisi non è
completa perchè è un programma che non contiene operazioni a floating point (anche se le
architettura ARM solitamente sono accompagnate da un coprocessore FPU per le
operazioni in virgola mobile). Il DMIPS è calcolato dividendo il punteggio di Dhrystone
15
per 1757 , punteggio di un processore di riferimento. Questo valore è più indicativo del
classico MIPS poichè tiene conto di varie tipologie di istruzioni diverse (ad esempio CISC
e RISC). Come si può immaginare i DMIPS/MHz sono ottenuti dividendo il precedente
per la frequenza operativa del processore.
Vediamo cosa sono e a cosa servono le componenti che vediamo dall'immagine
sovrastante, rappresentante l'architettura del Cortex-A9 .
2.3.1 Snoop Control Unit
Lo SCU connette i quattro core al sistema di memoria tramite un interfaccia AXI . Si
occupa di mantenere la coerenza dati nelle cache tra i core , di gestire le richieste alla
memoria cache L2 da parte dei core e dell'ACP. Lo SCU possiede un buffer che permette
di gestire i trasferimenti diretti tra cache a cache senza dover chiedere l'appoggio di
dispositivi di memoria esterni. Per mantenere la coerenza tra i core lo SCU utilizza una
variante del protocollo MOESI . Questo protocollo prevede di descrivere lo stato di ogni
linea cache dati di livello-1 con cinque possibili stati :
• Modified , i dati sono solo in questa cache e sono sporchi
• Owned , i dati possono essere in più di una cache e sono sporchi
• Exclusive, i dati sono solo in questa cache e sono puliti
• Shared , i dati sono possibilmente in più cache e sono puliti
• Invalid , i dati non sono in questa cache
Per sporchi e puliti ovviamente si intende se i dati sono coerenti o no con la copia presente
in memoria centrale. Lo SCU gestisce questi stati e mantiene la coerenza tra le cache.
16
2.3.2 Accelerator Coherency Port
E' un componente opzionale , che rispetta lo standard AXI 64 bit . Nell'architettura ARM
master-slave è uno slave che può essere connesso ad acceleratori esterni come un
DMAengine o un cryptographic engine. Questo componente fornisce una comuncazione
coerente diretta con Core del Cortex-A9 (e le cache) ottimizzando performance e
consumo.
L'ACP comunica direttamente e strettamente con lo SCU che si occupa dunque di
mantenere la coerenza anche delle richieste che arrivano dall'ACP. Ogni transazione di
lettura deve necessariamente interagire con lo SCU per vedere se l'informazione richiesta
si trova all'interno della cache L1 del processore . Se è così l'informazione viene restituita
direttamente all'acceleratore che ha effettuato la richiesta tramite l'ACP. Se non è così
viene controllata la cache L2 prima di rimandare direttamente la richiesta alla memoria
centrale. Nelle operazioni di scrittura prima che eventuali modifiche si propaghino nella
memoria centrale lo SCU si occupa di gestire la coerenza.
2.3.3 Generic Interrupt Controller
E' un dispositivo hardware che si prende in carico la gestione delle interruzioni
vettorizzate per conto del processore. Si frappone tra i dispositivi interrompenti e il
processore , collegandoli su varie linee (IRQ0,IRQ1...) e scaricando la CPU da tale
compito che richiederebbe una perdita di tempo considerevole . Gestisce le interruzioni
con un meccanismo a priorità che può essere configurato o può variare a seconda delle
esigenze. Deve inoltre mantenere una tabella nel quale mantenere l'indirizzo di memoria
nel quale è memorizzata la subroutine (Interrupt Service Routine) da far eseguire al
processore quando viene lanciata un interruzione.
17
2.3.4 Neon Data Engine
La tecnologia ARM NEON è un coprocessore 128 bit SIMD (Single Istruction Multiple
Data) che si occupa di accelerare e standardizzare l'elaborazione di segnali e applicazioni
multimediali. NEON utilizza un set di istruzioni, registri e elaborazione completamente
indipendenti da quelli dei processori. Neon dunque può accelerare gli algoritmi di
multimedia e signal processing come codifica/decodifica, elaborazione video , grafica
2D/3D , gaming , imaging processing e così via. Essendo un coprocessore SIMD
l'istruzione è la stessa effettuata in parallelo su più dati dello stesso tipo. Ad esempio se si
vuole aumentare la luminosità di un immagine , senza un processore/coprocessore SIMD,
bisognerebbe prendere ogni pixel , applicare l'algoritmo ad ognuno di essi e poi salvare i
risultati in memoria. Con Neon si possono eseguire fino a 16 operazioni uguali per
istruzione , quindi si caricano 16 pixel per volta , si applica l'algoritmo a tutti e 16 in
parallelo e si procede al salvataggio di tutti in memoria. Il vantaggio prestazionale è
evidente. Inoltre NEON libera i processori dalla gestione di queste istruzioni. Neon
migliora sensibilmente l'esperienza multimediale dell'utente :
• Guarda video in ogni formato
• Modifica e migliora video - stabilizzazione degli stessi
• Anti-aliasing
• Game processing
• Riconoscitore vocale
• Elaborazione audio multicanale
2.3.5 Floating Point Unit
La FPU è un coprocessore che fornisce prestazioni elevate nell'elaborazione di istruzioni a
singola e doppia precisione , ed è in grado di risolvere direttamente alcune operazioni
come calcoli esponenziali o trigonometrici (estrazione radice , seno..). Nel Cortex-A9 la
FPU implementa l'architettura VFPv3 di ARM , che supporta ed è compatibile con le
precedenti versioni VFPv1-2. E' compatibile con IEEE 754 , che è lo standard più
utilizzato e conosciuto per la rappresentazione in virgola mobile, e per le operazioni
definite su essi. Esso può interagire con il motore grafico come la GPU Mali di ARM.
2.3.6 L1 Cache
Ogni core possiede due memorie cache , una per i dati e l'altra per le istruzioni , di
dimensione variabile solitamente tra i 16KB e i 64KB.
2.4 Cortex-A50 Series
L'architettura ARM è presente in tantissimi SOC che utilizziamo nei nostri dispositivi
portatili.
Ad esempio :
• Samsung Exynos prodotta da Samsung (Galaxy S2-S6,Iphone 3)
• Snapdragon di Qualcomm (HTC one, Nexus 4)
18
• Tegra di Nvidia (Nexus 7, Tablet Asus)
I produttori acquistano le licenze da ARM per progettare CPU basate sulla loro architettura.
Le varie architettura vengono chiamate "Cortex" e si differenziano tra loro per molti fattori.
Vediamo alcune caratteristiche chiave , cosa sono e come interpretarle.
•
•
•
•
•
DMIPS : gia prima lo abbiamo introdotto come un parametro molto importante per
l'analisi delle prestazioni delle CPU , valutato su set di istruzioni sia CISC che RISC.
E' ottenuto dividendo il punteggio di Dhrystone per 1757.
Stadi Pipeline : abbiamo visto sopra che nelle architetture ARM gli stadi pipiline
vengono estesi per incrementare le prestazioni ad alta frequenza. Alcuni processori
utilizzano pipeline a 10 stadi o addirittura nelle ultime architetture a 15+ stadi.
Esecuzione out of order : se presente è un supporto che aiuta ad inviduare istruzioni
non vincolate ad altre e che quindi possono essere eseguite parallelamente, anche non
rispettando l'ordine iniziale imposto dal programmatore.
Cache L2 : dimensione della memoria cache di livello 2. Nelle architetture ARM
solitamente la cache L3 non è presente , per cui quest'ultima è la più grande cache
utilizzabile dalla CPU per aumentare la velocità di esecuzione e ridurre la latenza.
Execution port : numero massimo di istruzioni che la CPU può processare per ogni
ciclo di clock
Il parametro più semplice da valutare è il DMIPS. Confrontiamo tre processori :
QuadCore Cortex A9 a 1.4 GHz = 2.25 DMIPS*4 core*1,4 GHz = 12.6
Dual Core Cortex A15 a 2.1 GHz = 3.5 DMIPS*2 core*2.1 GHz = 14.7
Dual Core Cortex A57 a 1.6 GHz = 4.4 DMPIS*2 core*1.6 GHz = 14.8
Quindi un A57 ad una frequenza notevolmente più bassa ha più o meno le stesse prestazioni
di un A15 a 2.1 Ghz .
L'ARM Cortex A57 e A53 sono i primi modelli prodotti da ARM che supportano il nuovo set
istruzioni per ARMv8, quindi un architettura a 64bit. Oltre ad avere un set di istruzioni
chiamato Aarch64 è dotato di un ISA chiamato Aarch32 per la compatibilità con le precedenti
architetture . La prima è più orientata alle prestazioni la seconda ad un trade-off tra prestazioni
e consumo. La cosa interessante è che ARM ha prodotto un architettura proprietaria chiamata
big.Little dove vengono utilizzate insieme , quindi processori A57 e A53 per ottimizzare in
modo intelligente prestazioni e consumi. Samsung ha utilizzato questa configurazione per il
nuovo Samsung S6 , con il SOC Exynos 7420 , utilizzando ben 8 core 4+4 divisi equamente
in CortexA57 e CortexA53.
19
20
Capitolo 3: Architettura dei System on Chip
Per la descrizione dell'architettura ci rifacciamo alla struttura generale del Soc FPGA di
Altera. In ogni caso è bene far presente che questa architettura è del tutto generale.
Possiamo quindi schematizzare l'architettura generale di un SOC in due parti : l'Hard
Processor System e la FPGA.
L'HPS e l'FPGA comunicano tramite un interfaccia che deve garantire alte prestazioni che
mette in contatto le due porzioni (HPS-FPGA Interfaces).
3.1 FPGA
Field Programmable Gate Arrays sono dispositivi a semiconduttore , composti da una
matrice di blocchi logici configurabili (CLB) tutti uguali , connessi tramite una fitta rete
di connessioni programmabili e circondati da blocchi di I/O. E' un circuito integrato ma a
differenza della tecnologia ASIC ( Application specific Integrated Circuits ), nella quale
le configurazioni dei transistor sono fisse e scelte in fase di progettazione , la tecnologia
FPGA permette la riconfigurazione delle interconnessioni tra transistor , e grazie a questa
21
sua caratteristica può essere riprogrammata più e più volte , implementando anche
funzioni logiche molto complesse . Questa matrice di celle e interconnessione forma la
base per la costruzione di ogni circuito , anche quelli più complessi. Un aspetto importante
sono le interconnessioni interne, detti collegamenti locali , che sono pochi e condivisi tra
pochi elementi logici , permettendo ritardi contenuti e dissipazione di potenza limitata.
Inoltre all'interno di uno stesso dispositivo sono presenti collegamenti interni di lunghezza
differente permettendo un elevata flessibilità .Una caratteristica molto importante di questa
tecnologia è la capacità di eseguire operazioni parallele. Caratteristica che la rende una
scelta eccellente nelle applicazioni che necessitano di elaborazione parallela come
applicazioni di intelligenza artificale o di elaborazione multimediale.
Le FPGA sono fatte inoltre per permettere il cambiamento del loro progetto molto tardi
nel loro ciclo di progettazione , addirittura dopo che il prodotto è stato ultimato e
distribuito.
3.1.1 Tecnologia di Sviluppo
Le FPGA si dividono in due grandi famiglie caratterizzate dalla tecnologia di sviluppo.
Alla prima famiglia appartengono le FPGA OTP (One Time Programmable) , ossia
dispositivi che possono essere programmati una sola volta. Alla seconda famiglia
appartengono le FPGA SRAM , che invece possono essere programmate più volte.
Tutti i dispositivi ovviamente sono composti da un numero elevatissimo di transistor ma la
differenza sta nella tecnologia adoperata per costruirli.
I dispositivi OTP basati su tecnologia PROM (Programmable ROM) prima utilizzavano
dei MOSFET dotati di un fusibile che permetteva di memorizzare uno 0 a un 1 a seconda
se veniva bruciato oppure no. Ovviamente il processo era irreversibile e questa tecnologia
era alquanto costosa. Si è passati dunque alla tecnologia EPROM ( Elettrical
Programmable ROM) , dispositivi programmabili elettricamente e cancellabili con
radiazione ultravioletta , e poi ancora ai EEPROM scrittura e cancellazione elettrica . Con
queste tecnologie il nome OTP inizia a perdere di significato. Un ulteriore evoluzione è
l'utilizzo della tecnologia FLASH , tecnologia in avanzamento capace di memorizzare più
informazione in uno spazio più piccolo grazie alle multilevel cell.
La seconda famiglia si basa su tecnologia RAM , dispositivi che devono essere dunque
ripogrammati ad ogni accensione per via della loro volatilità.
3.1.2 Architettura fisica di una FPGA
22
Una FPGA è composta da una matrice di blocchi. I blocchi che la compongono vengono
chiamati in modo diverso a seconda della famiglia e del costruttore , noi ci riferiremo ad
essi come CLB (Configurable Logic Block). Ognuno di questi CLB può essere visto come
un insieme di elementi logici basilari chiamati Logic Cell. Questi a loro volta sono
composti da una LUT (o più) e da un flip flop . Le singole LUT sono formate da una
SRAM a 16 bit e un multiplexer a quattro ingressi . Quindi le LUT dopo la configurazione
implementano funzioni logiche booleane di quattro variabili , ma attraverso una
organizzazione più complessa è possibile estendere il numero di ingressi.
Si preferisce però lasciare le funzioni logiche elementari più semplici possibili poichè la
complessità delle LUT cresce esponenzialmente con il numero di ingressi. I CLB vengono
dunque connessi tra loro, per realizzare una funzione logica più complessa, tramite un
sistema di interconnessione locale abbastanza minimale, in modo da garantire semplicità e
velocità allo stesso tempo. Le interconnessioni tra i CLB possono essere di due tipologie :
linee fisse o le matrici di scambio. Le matrici di scambio sono costituite da pass-transistor
programmabili per instradare i segnali all'interno della matrice. All'esterno della matrice
sono presenti i pin di ingresso/uscita che permettono di interfacciarsi con
l'esterno.All'interno della matrice sono presenti altre risorse come ALU, risorse di calcolo
generali , DCM (Digital Clock Manager) , la rete che trasporta il segnale di clock ai flip
flop e elementi di memoria distribuita.
3.1.3 Flusso di Progetto
23
Esistono vari modi per progettare un circuito integrato , un esempio è attraverso i
linguaggi di descrizione dell'hardware come VHDL e Verilog.
Il modello computazione dei linguaggi di descrizione dell'Hardware è profondamente
diverso da quello dei linguaggi di programmazione tradizionali . Il ruolo del progettista è
descrivere cosa fare non come.
Nei linguaggi di programmazione (C,C++,Java) , gli statement definiscono delle istruzioni
eseguite in sequenza o parallelamente da un infrastruttura ( dalla CPU nel caso del C ,
dalla Java Virtual Machine nel caso del Java ).
Nei linguaggi di descrizione dell'Hardware gli statement invece definiscono blocchi
hardware , non c'è esecuzione sequenziale (o parallela) , nessuna infrastruttura sottostante
e nessun run-time.
Ci sarà una fase di Analisi e Sintesi in cui il sintetizzatore analizza i costrutti del
linguaggio , riconosce i template e ne deriva i componenti di alto livello (contatori ,
decoder , multiplexer...).
Tale rappresentazione però non è direttamente collegata all'hardware finale ma arvà
soltanto un ruolo "funzionale".
L'hardware viene inferito nella fase di Mapping, in cui il sintetizzatore si avvale delle celle
logiche FPGA per mappare le funzionalità descritte su hardware reale.
Vediamo un tipico iter progettuale :
• Sintesi :
Descrizione schematica del dispositivo , data in ingresso una descrizione attraverso un
linguaggio come il VHDL fornisce un uscita una rete logica. Sostanzialmente trasforma il
testo in uno schema a blocchi formato da componenti basilari di descrizione.
• Simulazione:
E' la fase in cui si ottimizza la rete logica in maniera del tutto indipendente dalla
tecnologia che dopo verrà utilizzata per la realizzazione fisica. Durante questa fase si
effettua un primo controllo sui tempi , si verifica se ci sono ritardi imprevisti che possono
provocare errori . In caso affermativo si deve rivedere il linguaggio di descrizione.
• Mapping:
24
•
•
Conversione dei componenti base della rete logica con elementi fisici generici. E' un
passaggio che dipende dalla tecnologia che si userà per la realizzazione . In questa fase si
cerca di ottimizzare il circuito riducendo l'area occupata. Tutti gli elementi di memoria di
alto livello (registri,shift register, contatori) vengono ricondotti a dei semplici flip flop. Si
identificano le equazioni booleane (si ottimizzano) , per scegliere i vari collegamenti tra
elementi fisici. Si mappano le funzioni booleane sulle Look-up table .
Simulazione:
Simulazione fisico-elettrica utilizzando programmi di CAD
Place and Route:
La fase di Place assegna le celle logiche ad una specifica locazione del FPGA . Il routing
seleziona i segmenti di linee di connessione e li collega alle celle. E' un processo semiautomatico al quale è possibile assegnare dei vincoli , come area occupata o tempo di
propagazione tra collegamenti. Il processo non sempre viene portato al termine in maniera
automatica , spesso perchè i vincoli sono impossibili da rispettare o perchè il circuito è
troppo complesso.
3.1.4 FPGA vs ASIC
ASIC come gia detto sta per Application Specific Integrated Circuits , ovvero circuiti
integrati progettati per una specifica applicazione. Questo ci fa capire subito che in questo
caso è necessario un processo di design molto più complesso , preciso , costoso anche
perchè si deve lasciare il minimo spazio agli errori che in fasi successive sono difficili da
risolvere. Concentrarsi su un unico obiettivo chiaramente rende questi circuiti integrati più
veloci e potenti nella risoluzione di quello specifico problema, però chiaramente i costi di
progettazione raggiungono picchi più alti. In realtà il confronto non è propriamente
corretto così come è stato impostato. Questo perchè gli ASIC si dividono in "full-custom
ASIC" , "semicustom ASIC" e programmable ASIC.
• Full Custom ASIC : un esempio di questo tipo di ASIC è il microprocessore. Con
questa tipologia è possibile scegliere in maniera personalizzata celle logiche e layout
. Questo permette di includere circuiti analogici, celle di memoria ottimizzate
donandogli grande versatilità. Questa produzione richiede tempi lunghissimi di
progettazione e costi elevatissimi.
• Semi Custom ASIC o Standard Cell : tutte le celle logiche utilizzano componenti
standard come porte AND , OR , multiplexer , flip flop. In ogni caso il progettista
deve scegliere come piazzare le celle standard e come collegarle. Quindi suppur le
celle logiche sono quelle basilari le maschere sono personalizzate da cliente a
cliente.
• Programmable ASIC : sono disponibili in un catalogo o comunque in configurazioni
standard , venduti in grossi volumi ai clienti. Questi dispositivi possono essere
programmati e configurati per personalizzare il progetto. Le FPGA sono da un certo
punto di vista simili a questo sottoinsieme.
Quindi quando ho scritto FPGA vs ASIC , intendo logica programmabile contro logica
non programmabile come la Standard Cell . Vediamone un confronto .
•
Time to market:
Gli FPGA hanno tempi di progettazione bassi e permettono di immetere
velocemente un prodotto sul mercato. Al contrario i tempi di progettazione di un
25
•
•
•
•
•
•
ASIC sono molto lunghi , spesso durano mesi o addirittura anni. Per ridurre questi
tempi spesso si progetta un prototipo in FPGA e dopo lo si cambia in un ASIC.
Tool : Dato che la FPGA viene personalizzata nel software i tool non devono essere
diversi da cliente a cliente , quindi spesso sono molto economici o addirittura
gratuiti. Per gli ASIC invece i tool sono molto costosi dato che devono essere
personalizzati e pensati per l'hardware appropiato.
Area occupata : da questo punto di vista gli ASIC vincono il confronto. L'hardware
personalizzato permettono di ottimizzare la dimensione della board.
Costi di progetto : Le FPGA hanno costi di progetto praticamente nulli al contrario
ovviamente degli ASIC che possono raggiungere costi anche per milioni di dollari.
Costi per unità : Una volta progettato in massa gli ASIC hanno costi per unità
decisamente più bassi .
Velocità : Il design flessibile e personalizzato degli ASIC permette di raggiungere
velocità molto più elevate rispetto ad un progetto generico programmato via software.
La differenza di frequenza operativa varia di circa 10 volte (500 MHz contro i
40MHz)
Consumo : anche in questo confronto la spuntano gli ASIC che hanno un consumo
molto più ridotto (circa 10 volte in meno rispetto le FPGA).
Un aspetto non di poco conto è che se dopo l'immissione nel mercato ci accorgiamo della
presenza di un bug , nelle FPGA risolvere questo problema risulta più semplice in quanto
basta riprogrammare il dispositivo (magari rilasciando un aggiornamento) . Con la
tecnologia ASIC i costi per correggere questo errore possono essere elevatissimi.
E' chiaro che non è corretto dire quale dei due è la scelta migliore in assoluto , questo
ovviamente dipenderà dal tipo di applicazione e dallo specifico obiettivo che vogliamo
ottenere.
3.2 Hard Processor System
L' HPS contiene :
•
MPU subsystem
•
Flash Memory Controller
•
SDRAM controller subsystem
•
Sistema di interconnessione
•
On-Chip Memories
•
Periferiche di supporto e di interfaccia
•
PLL (Phase Looked Loops)
26
Vediamone alcune più approfonditamente.
3.2.1 Micontroller Processor Unit Subsystem
27
Questa unità è composta solitamente da un microprocessore (in questo caso ARM) , cache
L2, Interrupt Manager, timer e altre componenti. Nel caso in esame stiamo guardando
l'architettura della Soc Fpga Altera Cyclon V composta da due processori ARM CortexA9. Abbiamo visto nel secondo capitolo l'architettura ARM del Cortex-A9 MPCore per
cui non ci ritorneremo.
Sono presenti nel sottosistema diversi timer utilizzati (watchdog e global) dal sistema
operativo e dal processore per rilevare loop infiniti , deadlock e per general purpose.
Un semplice watchdog viene implementato tramite un contatore di x-bit che funzioni ad
una frequenza di clock di y MHz. In questo modo se il timer non si azzera ogni
2^x/(y*10^6) secondi il sistema si resetta.
L2 Cache
L'MPU subsystem include anche una cache L2 solitamente nell'ordine dei 512 KB. E'
condivisa tra i core , l'accesso e la coerenza sono gestiti dallo Snoop Control Unit.
Implementa un meccanismo di sicurezza chiamato ECC (Error Code Correction) ed è
fondamentale per incrementare la velocità di operazione della CPU. Questa cache è di tipo
associativa , cioè le aree di memoria centrale possono essere caricate soltanto in aree
specifiche della memoria cache. In particolare nell'architettura della Cyclone V vista sopra
le cache sono 8-way set-associative, ovvera una certa area di memoria centrale può essere
mappata solo in 8 zone diverse della cache.
Memory Management Unit
Utilizzata con le cache L1 e L2 per la conversione degli indirizzi virtuali utilizzati da
software di alto livello, con gli indirizzi fisici usati dall'hardware. Ogni processore ne ha
una personale. Si avvale per funzionare correttamente di alcune TLB spesso di diverse
dimensioni.
ACP ID Mapper
28
Situato tra l'interconnessione L3 esterna al MPU subsystem e l'ACP slave interno al
sottosistema. Più avanti vedremo che lo standard AXI AMBA prevede un AXI ID per
identificare univocamente la transazione tra master e slave. L'ACP ID Mapper mappa
l'AXI ID a 12 bit proveniente dall'esterno in un AXI ID a 3 bit a cui l'ACP slave è
compatibile. Questo succede perchè l'ACP Slave supporta un numero limitato di
transazioni parallele (circa 6) che può controllare, ma nell'FPGA possono essere presenti
un gran numero di slave che richiedono l'accesso all'ACP. Quindi viene utilizzato un ID
AXI di transazione di 12 bit per identificare i tanti master , però ad ognuno di essi viene
assegnato un ID di 3 bit identificativo dall'ACP ID Mapper per iniziare la comunicazione.
3.2.2 Flash Memory Controller
Il Flash Memory Controller gestisce i dati immagazinati sulla memoria flash e permette la
comunicazione con personal computer o device esterni. Le memorie flash sono molto
utilizzate per i dispotivi portatili , grazie alla loro dimensione ridotta e alla possibilità allo
stesso tempo di immagazzinare una grande quantità di informazione (Multi-level cell) .
Esso può essere progettato per lavorare in ambienti a bassi duty-cycle come SDcard ,
macchine fotografiche digitali o simili.
Per esempio esso è usato nelle classiche pennette USB per comunicare con i personal
computer ed interagire con il sistema operativo, donando una struttura come quella di un
file system.
Vengono anche progettati per operare in ambienti con duty-cycle alti come ad esempio i
dispositivi di memorizzazione a stato solido (SSD).
Dopo la produzione , il flash controller viene utilizzato in prima battuta per formattare la
memoria flash per capire se il dispositivo funziona correttamente. Esso ha anche il
compito di dividere le celle in good block e bad block durante il ciclo di vita della
memoria . Questa distinzione è dovuta al fatto che ci sono un numero massimo di
operazioni che si possono effettuare sui blocchi di memoria flash prima che lo strato di
ossido cominci a corrodersi. Per questa ragione vengono predisposti blocchi alternativi da
mettere in funzione in caso di parti di memoria non funzionanti (bad block). In questo
modo si cerca di preservare la capienza iniziale della memoria. Questo fenomeno va sotto
il nome di over-provisioning. In realtà questi blocchi non restano inutilizzati , ma sono
impiegati dal File-system per migliorare le prestazioni del supporto di memoria. Esistono
varie tecnologie per costruire una memoria flash . La prima ad essere utilizzata fu la
tecnologia NOR , che ha la caratteristica di ottimizzare i tempi di lettura random. Infatti
vengono utilizzate per contenere i firmware di microcontrollori che devono essere
aggiornati raramente e devono essere eseguiti spesso. La tecnologia NAND flash si
differenzia per la struttura dei transistor che in questo caso sono connessi in serie. Questo
tipo di tecnologia è ottimizzato per la modifica veloce dei dati , inolte per effettuare una
cancellazione si deve eliminare un intero settore di 8Kb contro i 64Kb della tecnologia
NOR. Inoltre la tecnologia NAND occupa molto meno spazio , permettendo con la stessa
capacità di area di immagazzinare più informazione.
3.2.3 SDRAM Controller Subsystem
Fornisce un accesso efficiente alla SDRAM esterna per il sottosistema del processore , la
interconnessione L3 e la FPGA Fabric. Quindi è il responsabile di fornire l'interfaccia di
comunicazione tra l'HPS e l'FPGA Fabric.
29
Come si evince dall'immagine e come avevamo gia anticipato , l'SDRAM controller
subsystem mette in comunicazione MPU, L3 e FPGA Fabric con i dispositivi di memoria
esterni.
Il sottosistema è formato da :
• SDRAM Controller
• Physical Layer Interface (PHY)
• Control e Status Registers
SDRAM Controller
Fornisce grandi performance per l'accesso dati e programmabilità a run-time. Esso
implementa gli algoritmi per minimizzare i tempi di latenza. Il controller è formato da una
Multi-Port Front End(MPFE) e una Single-Port Controller (SPC) . La prima fornisce
interfacce indipendenti per la comunicazione con diversi sottosistemi rendendo il lavoro
della Single-Port indipendente da chi effettua la richiesta. Inoltre è il responsabile
dell'operazione di scheduling sulle rischieste pendenti, quindi invia la transazione
schedulata al Single-Port. Ci sono dunque due tipi di scheduling il primo è chiamato
Multiport Scheduling , il secondo DRAM Burst scheduling che vedremo successivamente.
Il Multiport Scheduling è responsabile di decidere quale transazione accettare in base alle
richieste che gli arrivano sulle porte di ingresso. La Single-Port è responsabile
dell'amministrazione e delle comunicazioni con i dispositivi di memoria esterni, e quindi
di portare a termine le richieste. Valutare le performance di un SDRAM controller
significa valutarne la bandwidth che dipende fortemente dall'efficienza del controllore .
30
Ad esempio supponiamo che il controllore abbia un efficienza del 70% con un interfaccia
di 32 bit e una frequenza operativa di 400 MHz :
Quindi risulta semplice capire che per incrementare le prestazioni bisogna alzare
l'efficienza del controllore . L'efficienza può essere incrementata eliminando i tempi morti
, infatti l'efficienza è uguale al numero di cicli di clock in cui il bus dati è occupato, diviso
il numero totale di cicli di clock.
MPFE SDRAM Burst Scheduling
Lo scheduling può variare da tecnologia a tecnologia , ma in genere gli algoritmi si basano
tutti su queste semplici regole. L'MPFE controlla che l'indirizzo della richiesta sia
appartenente allo stesso banco di memoria attivo .
Il SPC serve le richieste così come gli vengono passate dal MPFE.
L'algoritmo di scheduling agisce in due fasi , nella prima fase ogni transazione deve
attendere un certo tempo per diventare idonea per la scelta. Per diventare idonea deve
attendere che il proprio banco diventi attivo. Nella seconda fase le transazioni idonee
competono tra loro sulla base di alcuni parametri :
• Transazioni ad alta priorità hanno precedenza
• Le operazioni di lettura hanno precedenza su quelle di scrittura
• Se gruppi di transazioni hanno la stessa condizione (priorità/operazione) si prende la
più vecchia
L'algoritmo viene detto Burst Scheduling proprio perchè si prova a leggere/scrivere
porzioni di memoria contigue per evitare le operazioni previste dal protocollo di accesso
alla memoria, ed in questo modo si risparmiano le fasi in cui viene detto al controllore
dove andare a prendere i dati. Questa tecnica viene utilizzata per aumentare il throughput.
L'ordinamento nel controllore è fondamentale e come detto serve per modificare l'ordine
di arrivo delle richieste per massimizzare il numero di operazioni nell'unità di tempo. Si
ordinano le operazioni per eseguire sequenzialmente la stessa operazione che per la
località spaziale accederà a locazioni contigue della memoria.
31
DDR PHY
Fornisce un livello di interfaccia fisico per le operazioni di scrittura e lettura tra il
controllore di memoria e i device esterni di memoria.
3.2.4 Phase Locked Loop (PLL)
Per PLL in elettronica si intende un circuito in grado di generare un segnale periodico la
cui fase è relazionata a quella di un segnale di riferimento. Questo circuito può essere
utilizzato per vari scopi ma nel nostro caso viene utilizzato come generatore di clock.
Il comparatore di fase è un circuito elettronico che genera un uscita pari alla differenza di
fase dei due segnali in ingresso. Il filtro passa-basso permette il passaggio di sole basse
frequenze del segnale e spesso è realizzato in maniera molto semplice attraverso il classico
circuito RC (filtro passabasso passivo), oppure attraverso lo schema con amplificatore
operazionale (filtro passabasso attivo).
Il VCO (Oscillatore Controllato in Tensione) ha lo scopo di emettere in uscita un
oscillazione di periodo che è determinato da una tensione posta sull'ingresso di controllo.
Il divisore di frequenza non è presente nel caso del generatore di clock .
Quindi il funzionamento di base è il seguente : il segnale di ingresso e di uscita vengono
confrontati nel comparatore di fase , che restituisce dunque lo sfasamento che c'è tra loro .
Questo segnale di uscita opportunamente filtrato , raggiunge il VCO che emette un
oscillazione di frequenza maggiore o minore rispetto alla precedente a seconda dello
sfasamento. Dato che il sistema è retroazionato negativamente, l'uscita del VCO viene
confrontata con l'ingresso. A regime il sistema arriverà in uno stato in cui segnale di
32
ingresso(riferimento) e l'uscita del VCO avranno stessa frequenza raggiungendo la
stabilizzazione del PPL.
3.2.5 On-Chip Memory
L'HPS possiede due tipi di on-chip memory :
• On-Chip RAM : solitamente 64KB di general-purpose RAM , accessibile dal FPGA.
E' presente inoltre anche in questo caso un ECC in grado di rilevare errori su due
bit e correggerne uno.
• Boot ROM : contiene il codice necessario per l'avvio dell'HPS . Il processo di avvio
dell'HPS è diviso in più fasi. Nel Boot ROM sono scritti degli indirizzi di
memoria di un dispositivo di memorizzazione di massa , e queste locazioni
contengono del codice da eseguire per avviare il dispositivo. Quelle routine sono
dette preloader e devono essere fornite dal programma utente .
3.3 Periferiche di supporto e di interfaccia
3.3.1 DMA
Il DMA è usato per spostare dati tra le memorie interne , memorie esterne e periferiche
senza l'intervento della CPU e soprattutto in background rispetto alle operazioni della
stessa. Le periferiche di input/output lavorano a velocità molto minori rispetto alla CPU ,
senza il meccanismo di DMA il processore sarebbe completamente occupato durante tutta
la durata dell'operazione di read o write senza la possibilità di effettuare altro lavoro utile.
Con il DMA la CPU inizia al trasferimento , poi lascia il controllo del bus di
comunicazione al DMA controller ed effettua altro lavoro utile. Il DMA controller può
spostare grandi quantità di dati da qualsiasi parte tra la logica configurabile e l'hard
processor system . Il DMA gestisce i trasferimenti attraverso diversi canali (Acknowledge
, richiesta , controllo) e due registri (DC e IOAR) . Quando la CPU necessita di
informazioni presenti in memoria , carica nel registro IOAR l'indirizzo dove trovarli e in
DC il numero consecutivo di byte da prelevare; è presente inolte un ulteriore bit in cui si
indica se l'operazione è di lettura o scrittura. A questo punto il DMA controller invia un
segnale alla periferica (Request) aspettando che quest'ultima gli risponda con un segnale di
33
Ackwnoledge. Ad ogni passo si incrementa IOAR e si decrementa DC fino a che
quest'ultimo non diventa 0. Questo protocollo seppur estremamente semplice , permette di
incrementare enormemente le prestazioni di sistema. Il trasferimento può avvenire in
diverse modalità :
•
Burst Transfer : una volta iniziato il trasferimento il DMA mantiene il controllo del
bus di comunicazione fino alla fine e non può essere interotto dalla CPU.
•
Cycle Stealing : Il DMA esegue il trasferimento di parole per ogni ciclo completo
alla volta. Per ogni ciclo c'è un handshaking con la periferica e il trasferimento parte
solo se la periferica è completamente pronta. In questo caso la CPU può riprendere il
possesso del bus nei frammenti in cui il trasferimento è fermo.
•
Transparent/Hidden : Il DMA prende possesso del bus solo se la CPU non ne ha
bisogno. Il controller tiene traccia delle operazioni della CPU verificando se le
operazioni che dovrà effettuare lo terranno occupato per un tempo abbastanza lungo.
3.3.2 SPI
Il Serial Peripheral Interface è un sistema di comunicazione tra un micontrollore con
circuiti integrati o tra microcontrollori separati. L'architettura è di tipo master-slave , con il
master che controlla il bus , emette il segnali di clock per la sincronizzazione e decide
quando iniziare e terminare la comunicazione. Il bus SPI è di tipo seriale , ovvero i bit
vengono trasferiti uno dietro l'altro e giungono così come sono stati inviati ; è sincrono
poichè è presente un clock che scandisce il tempo di trasmissione e ricezione ; è fullduplex in quanto il bus può essere adoperato per l'invio e la ricezione
contemporaneamente . Solitamente la comunicazione SPI viene adoperata per la
comunicazione tra dispositivi sullo stesso circuito integrato.
I segnali sono quattro:
• SCLK : Segnali di clock per la sincronizzazione nel trasferimenti di dati
• MOSI : Master Output Slave Input , come si vede facilmente dal verso della freccia
(o intuibile dall'acronimo) è l'uscita per il Master e l'ingresso per lo slave.
• MISO : Master Input Slave Output , il duale del precedente
• SS: Chip Select o Slave Select , utilizzato per decidere con quale dei vari slave
collegati vogliamo iniziare la comunicazione.
Semplificando molto il protocollo si tratta di uno scambio di dati tra shift register sotto il
controllo esclusivo di un master. SPI può operarare a frequenze diverse che dipendono dal
dispositivo . Sulla maggior parte di essi può raggiungere frequenze operative fino a 10 MHz.
3.3.3 I2C
34
Anche'esso è un sistema di comunicazione seriale,half duplex utilizzato nei circuiti
integrati. La classica architettura è composta da almeno un master e almeno uno slave . A
differenza del SPI si possono prevedere architetture multimaster. L'I2C a differenza
dell'SPI, che utilizza un chip select per indicare lo slave con il quale vuole comunicare ,
invia un indirizzo sulla linea dati a 7 bit. Sono dunque 128 indirizzi di cui 16 sono riservati
e quindi in totale è possibile collegare sullo stesso bus 112 dispositivi.
Il protocollo hardware richiede l'utilizzo di due linee di comunicazione chiamate
SDA(Serial Data) e SCL (Serial Clock) . Il protocollo è semplice , il master invia un bit di
start (S) seguito dall'indirizzo dello slave con cui vuole comunicare (B1..B7) . Il bit B8
sarà utilizzato per indicare se si vuole trasferire informazioni o riceverne. Se lo slave esiste
e deve inviare informazioni prende il controllo della linea dati e invia un segnale di ACK .
Il master sa dunque che lo slave sta per trasmettere e si mette in attesa.
Le velocità raggiunge da I2C sono notevolmente minori rispetto a quelle di SPI , che
risulta anche notevolmente più semplice da gestire dato che non è presente un vero e
proprio protocollo di handshake. In I2C inoltre tutti i dispositivi collegati al bus possono
assumere il ruolo di master , anche se può esserci un solo master alla volta.
Tirando le somme l'SPI è decisamente una scelta più saggia per un architettura con un solo
master e un numero limitato di slave e quando vuoi la massima velocità di trasmissione
possibile . L'I2C sarà utile in sistemi multimaster con molte unità collegate .
3.3.4 UART
Universal Asynchronous Receveir-Trasmitter è un dispositivo hardware che si occupa di
convertire flussi di bit da un formato parallelo ad un formato seriale asincrono o viceversa.
Questo dispositivo è di fondamentale importanza se si vuole realizzare un interfaccia di
comunicazione con un calcolatore. Inserire questo dispositivo nel progetto può permettere
di aumentare le funzionalità del proprio circuito , aggiungendo dispositivi come Bluetooth
e sensori di varia natura.
3.3.5 CAN
Controller Area Network è uno standard bus per trasmissione seriale in ambiente multicast
utilizzato principalmente per applicazioni real-time. La sua caratteristica principale è di
essere estremamente resistente a disturbi di natura elettromagnetica. E' stato progettato su
richiesta della Mercedes , che voleva un semplice sistema di comunicazione che collegasse
i vari sensori , chiusure centralizzate , dispositivi elettronici senza aumentare
eccessivamente i costi di progetto e senza che ci fosse un cablaggio troppo fitto . Il
funzionamento è estremamente semplice , il messaggio non contiene indirizzi di alcun
genere , ma viene inviato in multicast a tutti i dispositivi della rete. I riceventi leggono il
contenuto del messaggio e filtrano solo quelli a cui sono interessati. Si raggiungono
velocità di trasmissione fino ad 1 Mbit/sec.
L'HPS inoltre fornisce spesso anche controller Ethernet per il trasferimento di dati da
10/100/1000 Mbps in accordo con lo standard IEEE 802.3 e dei controllori USB per il
trasferimento seriale ad alta velocità , che supportano la On the Go connection o anche
detta connessione a caldo.
3.4 Sistema di Interconnessione
35
Il sistema di interconnessione sui SOC ha subito profonde variazioni nel corso degli anni.
Il sistema si è sempre basato sullo standard ARM AMBA (Advanced Micontroller Bus
Architecture) . AMBA fu creato nel 1996 da ARM e da moltissimi anni grazie alle
altissime velocità che permette di raggiungere è lo standard per le interconnessioni nei
sistemi embedded. Dalla prima versione ci sono stati molti sviluppi e molti miglioramenti
fino ad arrivare nel 2013 alla versione 5 di AMBA. Vediamo come è avvenuta questa
evoluzione :
Advanced High-Performance Bus (AHB)
In AMBA 2.0 apparve per la prima volta come parte fondamentale l'Advanced High
Performance Bus (AHB) , fatto per rimpiazzare Advanced System Bus (ASB) come lo
standard di interconnessione per i SOC basati su ARM . AHB e ASB sono molto simili
nella loro struttura generale.
AHB supporta single data access e vari tipo di accessi burst . Ogni trasferimento è definito
in due fasi : fase indirizzo e fase dati. La fase di indirizzo viene portata a termine durante
la fase dati della precedente operazione.
L'architettura AHB è mostrata nell'immagine in basso , ed è una tradizionale architettura
bus , master e slave . Il protocollo prevede delle operazioni avanzate come RETRY o
SPLIT nel caso in cui uno slave non sia in grado di rispondere immediatamente. In quel
caso il master che ha preso possesso del bus , ritirerà la richiesta e gli altri master potranno
procedere.
Multi-layer AHB
Sebbene questa architettura bus sia ancora utilizzata , circa una decina di anni fa i SOC
ARM hanno iniziato ad utilizzare le architetture bus multilivello.
Ogni livello del bus è un singolo indipendente sistema AHB . Ogni livello è formato da M
multplixer con S ingressi e 1 uscita , più S multiplexer con M ingressi ed una uscita (dove
M è il numero di Master e S il numero di Slave) tutti connessi tra loro .
Con questa architettura più master possono comunicare con più slave simultaneamente , se
i master non richiedono la comunicazione allo stesso slave. I protocolli di comunicazione
sono stati modificati eliminando, per la verità gli abbastanza sgraditi, SPLIT e RETRY
36
dell'architettura precedente e aggiundendo un protocollo di handshaking molto conosciuto
attraverso HGRANT, HBUSREQ e HREADY.
AXI3 (Advanced eXensible Interface)
Con i System on Chip moderni che includono multicore, DSP , controllori grafici e
moltissime altre periferiche avanzate avere un sistema di interconnessione limitato può
diventare un collo di bottiglia per l'intero sistema. L'architettura multi-layer seppur
migliore di quella a singolo livello , non è in grado di star dietro alle sempre più insistenti
richieste dei sistemi moderni. Le ragioni principali sono che le operazioni sono transfernoriented. Per ogni trasferimento viene considerato un indirizzo sul quale agire , e un
singolo dato viene letto o scritto , per cui per ogni parola da trasferire serve l'handshaking.
Poi l'architettura master-slave pone un limite dovuto al fatto che gli slave potrebbero non
essere sempre disponibili , e il master andrà in stallo in attesa che lo slave di liberi . Inoltre
la comunicazione non è mai full-duplex .
Un interfaccia AXI è composta da cinque canali (write address, write response , read
address , read data/response) che operano indipendentemente dagli altri . Tutti utilizzano
lo stesso protocollo di comunicazione tra master e slave a seconda dell'operazione da
effettuare. Anche in questo caso le transazioni sono transfer-oriented , però sulla stessa
transazione avviene anche la risposta dello slave sul canale corrispondente. Inoltre le
comunicazioni sono bursted, quindi vengono trasferiti dati da 1 a 16 bit ad alta velocità
senza che il processo possa essere interotto. Ogni trasferimento viene marcato con un ID
che permette ai master e slave di capire a quale transazione si fa riferimento , ed inoltre
questo permette di implementare algoritmi che ottimizzino il trasferimento di dati , ad
esempio i trasferimenti non devono necessariamente essere contigui.
E' presente in questo standard il write interleaving. Due master che vogliono comunicare
con lo stesso slave non richiedono l'uso esclusivo del bus , ma se lo scambiano mentre
l'altro è in fase idle .
AXI4
E' la penultima versione del protocollo AXI . Rispetto alla versione precedente è stata
incrementata la dimensione massima del trasferimento burst da 16 a 256 bit. I segnali di
risposta degli slave sono stati estesi e sono state effuati altri miglioramenti strutturali per
incrementare notevolmente il troughput . Sono stati estesi i segnali di Quality of Service
(QoS) rendendo i dettagli che questi possono comunicare più precisi . Una differenza
significativa è che il write interleaving è stato eliminato rendendo il protocollo AXI più
semplice da gestire . E' stato eliminato perchè si è visto che adoperando il trasferimento
burst veniva raramente utilizzato . Attualmente è senza dubbio l'interfaccia AMBA più
utilizzata in assoluto nei System on Chip.
Nel protocollo è presente un bus chiamato Advanced Peripherical Bus (APB) per
interconnettere le periferiche tra loro .
37
Capitolo 4 : Zynq-7000
4.1 Introduzione
Zynq-7000 è una famiglia di SOC progettate da Xilinx . Questi prodotti integrano un
Dual-Core ARM Cortex A9 MPCore (che è lo stesso utilizzado da Cyclon V di Altera),
con la logica programmabile di Xilinx. Non siamo entrati nel merito della FPGA prodotte
da Xilinx e Altera poichè esulava dallo studio della mia trattazione, ma bisogno
specificare che queste due sono le famiglie leader del mercato per quanto riguarda le
FPGA . Su questi dispositivi Zynq-7000 sono presenti FPGA proprietarie Xilinx
ovviamente , e sono Virtex-7, Kintex-7 o Artix-7 tutte e tre con tecnologia 28nm . Queste
FPGA erano fino a poco tempo fa il prodotto di punta di Xilinx , ora però sono state
sorpassate dalle FPGA Virtex/Kintex UltraScale e Virtex/Kintex Ultrascale+ che hanno
raggiunto prestazioni ancora più eccellenti con tecnologia a dimensione ancora più ridotta
, rispettivamente di 20nm e 16nm.
Così come abbiamo visto essere composta l'architettura generale di un HPS , l'ARM
Cortex A9 è il cuore del subsystem processor che include on-chip memory, un ricco set di
38
periferiche di I/O e interfacce di memoria esterne. Queste SOC sono in grado di servire un
elavatissimo numero di applicazioni , incluse :
•
•
•
•
•
Assistente di guida , informazioni di guida e infotaiment per l'auto
Videocamere
Elaborazione , analisi e diagnostica di immagini in ambito medico
Stampanti multifunzione
Sistemi di controllo industriale
4.2 Architettura di Zynq-7000
L'immagine risulta molto simile allo schema visto quando ho parlato delle SOC in
generale rifacendomi al diagramma a blocchi di una SOC Altera Cyclone V. Sulla base
delle componenti studiate nel capitolo 3 cerchiamo di definire i parametri di questa SOC.
4.2.1 Application Processor Unit
L'application Processor Unit (APU) parte fondamentale del Processing System (HPS) , è
formato da due processori ARM-Cortex A9, con un coprocessore NEON per
l'accelerazione hardware per elaborazione di segnali multimediali, ed entrambi
condividono una cache L2 di 512 KB. Ogni processore in accordo con i processori ARM
fornisce prestazioni molto alte con un consumo molto limitato , e possiede due memorie
cache di livello 1 di 32 KB. Le due cache hanno ruoli diversi , una è utilizzata per le
istruzioni da eseguire , l'altro per i dati. I processori Cortex-A9 implementano l'architettura
ARM v7-A e possono eseguire istruzioni ARM standard a 32 bit , istruzioni Thumb a 16 e
32 bit e java bytecode a 8 bit. Cosa significa? Negli ultimi processori ARM sono presenti
un set di istruzioni a 16 o 32 bit chiamato Thumb che utilizza quattro bit per ogni
istruzione . Questo è più leggero ma implementa meno funzionalità . E' stato introdotto
39
perchè molti sistemi embedded seppur dotati di processori in grado di indirizzare 32 bit
possiedono bus verso la memoria limitato a 16 bit. In situazioni di questo genere conviene
utililizzare per la maggior parte codice Thumb semplice ed ottimizzato e il set di istruzioni
completo dove serve potenza computazionale più alta . Le istruzioni a 32 bit possono
essere eseguite grazie a Thumb 2 un estensione del primo set di istruzioni.
ARM ha implementato inoltre una tecnologia chiamata Jazelle che permette ai processori
di eseguire nativamente il java bytecode.
I due processori sono organizzati in una architettura multicore attraverso un Snoop Control
Unit (SCU) , dispositivo responsabile di mantenere la coerenza della cache L1 tra i
processori e di fornire un interfaccia verso la cache L2 e l'Accelerator Coherency Port
(ACP) . La cache L2 è di 512 KB sia per i dati che per le istruzioni, è condivisa dai
processori e ha lo scopo di incrementare le prestazioni. E' presente inoltre una on chip
memory (OCM) di 256 KB che permette di ridurre ulteriormente la latenza dovuta
all'accesso ai dispositivi di memoria esterni . L'ACP facilita la comunicazione dell'APU
con la logica programmabile.
L'accesso alla memoria cache L2 è come sempre gestita dallo SCU, ed è direttamente
collegato ad essa tramite una porta privilegata una memoria DDR . Quando l'APU vuole
comunicare con la memoria esterna può accedervi direttamente tramite la sua porta
privilegiata senza dover passare per il sistema di interconnessione condiviso con gli altri
master. Questo aiuta a ridurre la latenza.
L'APU inoltre contiene un timer watchdog a 32 bit e un 64 bit global timer che possono
essere utilizzati come general-purpose timer o come timer speciali per far uscire il
processore dalla stand-by mode. E' presente oltre al NEON, un coprocessore FPU VFPv3
per le operazioni in virgola mobile che è stato stimato raggiunga il doppio delle
prestazioni rispetto alla precedente versione.
Zynq-7000 utilizza un sistema di interconnessione ARM AMBA AXI Based e un sistema
High-Bandwidth tra la logica programmabile e il processor system. E' dotato inoltre di un
numero alto di periferiche di supporto ed interfaccia come quelle descritte nello scorso
capitolo.
40
4.2.2 FPGA
Come accennato in precedenza sulla famiglia Zynq-7000 sono montate le FPGA
proprietarie Xilinx che attualmente probabilmente sono le migliori presenti sul mercato.
In particolare nella famiglia Zynq-7000 è presente la serie 7 formata dal terzetto Artix-7,
Kintex-7 e Virtex-7. Si differenziano per moltissime caratteristiche che le dividono in tre
fasce di mercato diverso. Senza entrare eccessivamente nel dettaglio mostro una semplice
tabella che ne elenca le principali differenze tecniche.
41
Si nota senza dubbio la differenza in numero delle celle logiche che dalla versione di
fascia bassa a quella di fascia alta cambiano di circa 4 volte . Inoltre com'è logico
immaginare aumentano il numero di look-up tables e flip flop e di conseguenza la
complessità della logica programmabile che si può prevedere per questi sistemi. I DSP
presenti nella FPGA sono dei dispositivi in grado di eseguire in maniera estreamamente
efficiente l'analisi di segnali digitali e istruzioni ricorrenti quali somma, moltiplicazione e
traslazione , incrementando notevolmente le prestazioni.
42
Conclusioni
Durante la trattazione ho descritto le componenti principali che compongono un System
on Chip basato su logica riconfigurabile. Voglio rimarcare l'idea che senza l'architettura
ARM le SOC non avrebbero avuto lo sviluppo che hanno avuto . Inoltre voglio mettere
ulteriormente in luce perchè i SOC sono secondo me il futuro dei sistemi informatici.
• Costo Unitario : Il costo del sistema non è un fattore da ignorare , grazie
all'integrazione su un singolo chip , si ottiene un significativo decremento delle
dimensioni e dei costi dei componenti . Nei System on Chip il costo di progetto è
abbastanza elevato , ma se si considera un volume di produzione molto alto questi
costi vengono spalmati su un numero elevato di componenti , e i costi hanno un
influenza molto minore. Inoltre è vero che i costi di progetto sono più alti , ma
l'utilizzo della logica riconfigurabile comporta risparmio in altre area del ciclo di
vita del dispositivo (come una eventuale fase di aggiornamento).
• Prestazioni : Integrando tutti i componenti su un singolo chip è possibile ignorare le
linee di collegamento di componenti esterni che sono molto più lente rispetto ad un
interconnessione interna.
• Consumo energetico: Il consumo è ottimizzato grazie all'architettura all in one
chip, all'architettura ARM ottimizzata per il risparmio energetico, ed a tutte delle
procedure atte al risparmio presenti nel sistema .
• Alta Scalabilità , dinamicità e flessibilità : I vari produttori possono sfruttare la
riprogrammabilità delle FPGA per differenziare in maniera più semplice i loro
prodotti, evitare problematiche come l'obsolescenza e creare una serie di prodotti
che siano caratterizzati da alta scalabilità , convenienza e semplicità di
manutenzione.
I SOC stanno diventando sempre più piccoli e sempre più potenti, seconda quella che
sembra essere un evoluzione della legge di Moore . Con l'avanzare della tecnologia i costi
calano e penso che in prospettiva futura potremmo vedere un SOC in qualsiasi tipo di
dispositivo elettronico. Da poco si sono aggregati alla schiera gli orologi (SmartWatch) e i
gli occhiali (google glass) . Quale sarà il prossimo?
43
Bibliografia
[1]
Mariagiovanna Sami - Politecnico di Milano, Principi di architettura dei calcolatori :
L'architettura ARM
[2]
http://www.cyanogenmoditalia.it/2015/02/guida-alle-cpu-con-architettura-armedizione-2015/
[3]
Xilinx, What's a FPGA, http://www.xilinx.com/fpga/index.htm
[4]
Primiano Tucci -Università di Bologna, Introduzione a FPGA, principi di Design e
VHDL
[5]
Rodolfo Zunino - Università degli Studi di Genova , Introduzione ai Dispositivi
FPGA
[6]
Altera , Altera's User Customizable ARM-Based SOC.pdf
[7]
Altera , Cyclone V Hard Processor System Techinal Reference Manual
[8]
Wikipedia , DMA , http://it.wikipedia.org/wiki/Direct_Memory_Access
[9]
ARM technology A-series , http://memonex.com/news/item/69-arm-technology-aseries-processors-cortex-a9#specifications
[10]
Xilinx , Zynq-7000 - All programmable SOC - Technical Reference Manual
[11] Serial Peripheral Interface, http://www.microcontroller.it/Tutorials/Elettronica/
SPI.htm
[12] White Paper The ARM Cortex-A9 Processors
[13] Altera , Increasing Efficency with Hard memory Controllers in Low Cost 28nm
FPGAs
[14] Xilinx, Zynq-7000 All Programmable SoC Overview
[15] Xilinx , 7-series FPGAs Overview
[16] Marcus Harnisch , Migrating from AHB to AXI based SOC Design ,
https://www.doulos.com/knowhow/arm/Migrating_from_AHB_to_AXI/
44
[17]
UART : una panoramica sul funzionamento del dispositivo
http://programmazione.it/index.php?entity=eitem&idItem=46060
45
Fly UP