Professional Documents
Culture Documents
Schéma
-1 SEULE mémoire contenant les données et les -2 mémoires DISTINCTES : 1 pour les données, 1 pour les
Organisation instructions instructions
Mémoire
-Séparation virtuelle possible des mémoires -Séparation physique des mémoires
Accès Accès en série simple Accès en parallèle long
Nom CISC : Complex Instruction Set Computer RISC : Reduced Instruction Set Computer
Taille Chaque instruction a sa propre taille Toutes les instructions ont une même taille (4 octets dans un PIC)
Exécution Exécution difficile en plusieurs CPI Exécution facile en 1 seul CPI
Instructions
Compilation Facile Difficile
Systèmes Nombres Infini Limité
d’instructions Nature des programmes Complexe Compact
-Correction des bugs - Facile de prévoir la durée d’exécution
Qualités
-Programmation simple - Instructions rapides
-Processeur plus compliqué à accélérer - Diminution de lisibilité du code
Défauts
-Difficile de prévoir la durée d’exécution -
Non programmable
Programmable : PROM
o FPROM (Fuse PROM) : PROM non modifiable après programmation
ROM o OTP (One Time PROM) : Programmable une fois
(Rémanente) o EPROM : PROM programmable et effaçable
EEPROM : EPROM effaçable électriquement
UV-PROM : EPROM effaçable par exposition aux UV
EPROM flash : rapide, effaçable électriquement et totalement par blocs
TYPES COMPLEMENTS
Statique : SRAM Barrette de mémoire à correction d’erreurs :
o Synchrone : SSRAM
Dynamique : DRAM o 1 Bit de parité : dans N bits de mémoire, (N-1)
o Asynchrone : intervalle temporel entre 2 accès consécutifs à la mémoire irrégulier bits sont utilisées pour les données et 1 bit
FPM (Fast Page Mode) pour stocker la somme des (N-1) bits
EDO (Extended Data Out) : amélioration de la FPM
o Synchrone (SDRAM) : intervalle temporel entre 2 accès consécutifs à la mémoire
régulier
DR-SDRAM (Direct Rambus SDRAM) :
Mémoires
Circuit intégré complexe Capable d'effectuer séquentiellement et automatiquement des suites d'opérations élémentaires
o Unité de gestion d’E/S : gestion des flux de données échangées entre les E/S et la RAM
Schéma synoptique de base de l’architecture de Von Neumann :
architecture du 1er ordinateur
BD = Bus Driver
R1 = Accumulateur
7 : incrémenter le PC
- 6 : entrée BRA
- 16 : entrée du bit N Z V C
- 17 : jump if negative
- 18 : jump if zero
- 19 : jump if carry
- 20 : jump if overflow
PRISE EN CONSIDERATION DE LA RECURSIVITE AVEC UNE PILE
- 23 : incrémenter la pile
- 24 : décrémenter la pile
C1 Code Adresse RI
C1
A4 B2 C1
RM
UC
B3 CO
A3 A2
A1 +1
Opérande
RA
Instruction
Mémoire centrale
A1 : CO dans RA (adresse prochaine instruction dans RA)
A2 : incrémentation de 1 de CO (prochaine instruction à l’adresse suivante)
A3 : lecture de l’instruction et rangement dans RM CHERCHER
A4 : transfert de l’instruction de RM à RI pour décodage
B1 : analyse du code instruction ; envoi des signaux de commande DECODER
B2 : adresse de l’opérande dans RA
B3 : lecture de l’opérande en mémoire et rangement dans RM EXECUTER
C1 : calcul sur opérandes dans RM et ACC (a été précédé par un transfert du 1er opérande de la
O mémoire vers ACC et est suivie d’un transfert du résultat de ACC vers la mémoire).
U C1 : branchement adresse est rangée dans CO (devient la prochaine instruction à exécuter).
Méthode de gestion des E/S
Scrutation/Spolling: application du « handshaking »
o Le processeur interroge chaque dispositif pour déterminer la routine
dont il a besoin
o Simple mais coûteux
Schéma
CONNECTIQUE : CHIPSET & BUS
CHIPSET : circuit intégré préprogrammé permettant de gérer les flux de données entre le processeur, la mémoire et les périphériques
o Synchronisation des E/S avec le CPU
BUS : système de communication entre les composants d'un ordinateur
o Caractéristiques :
Largeur en bits : nombre de lignes parallèles (1 ligne transmet 1 SEUL BIT)
Fréquence en MHz : nombre d’accès au bus par seconde
Bande passante théorique maximal: Largeur du bus x fréquence en Mo/s
o Types :
Bus processeur/système (FSB=Front Side Bus):
bus le plus rapide, gérant les échanges entre le CPU et le northbridge
Bus mémoire : bus gérant les échanges entre le CPU et la RAM
Bus de données : bus véhiculant les données et les instructions à traiter
Bus d’adresse : bus indiquant l’adresse des cases mémoires lors du transfert de données
Bus de commandes : bus synchronisant le bus de données et celui d’adresse
Bus d’E/S :bus assurant la communication entre les différents éléments de l’ordinateur
Bus de périphériques : communication entre les périphériques et l’ordinateur
USB : Universal Serial Bus
SCSI : Small Computer System Interface
Firewire
PCMCIA : Personal Computer Memory Card International Association
Bus d’extension :
ISA (Industry Standard Architecture) : bus traitant les informations indépendamment des performances du CPU
MCA (Micro Channel Architecture) : bus plus performant que l’ISA
EISA (Extended ISA) : bus plus performant que l’ISA, concurrençant le MCA
Bus locaux :
PCI(-X) ( (eXtended) Peripheral Component Interconnect) : bus synchrone permettant une architecture Plug & Play
AGP (Accelerated Graphical Port) : bus permettant l’insertion d’une carte graphique dans la carte mère
VLB (Video Electronics Standards Association Local Bus): bus de connexion de cartes d’extension avec des performances meilleurs que chez l’ISA
Schéma d’une carte mère actuelle
Mémoires Caches
Mémoires statiques, rapides et très chères, accélérant les échanges entre la RAM et le CPU.
Principe de fonctionnement: coopération avec la RAM
o Les mots de mémoire centrale les plus fréquemment utilisés sont placés dans le cache.
o Le processeur cherche d’abord le mot dans le cache () :
Si le mot est présent (succès = cache hit) il l’obtient rapidement ().
Si le mot n’est pas présent (échec = cache miss), le processeur fait un accès à la mémoire centrale (, plus lent) et place ce mot dans le cache ().
Principe de localité : les données les plus souvent utilisées sont co-localisées.
o Localité spatiale : un programme utilise des instructions et des données avec des adresses proches
o Localité temporelle : un programme travaille avec les instructions et les données déjà utilisées
Schéma de lecture & d’écriture dans le cache
Lecture Ecriture
HIT
MISS
Principe de lecture
Algorithme Commentaire
Le processeur cherche d’abord si le mot mémoire
adressé est dans le cache (mot présent).
Principe d’écriture
Algorithme Commentaire
Le processeur doit accéder à la mémoire cache
pour vérifier si l’information est présente dans le
cache (mot présent) et éventuellement la
modifier (modifier cache).
On a en général C >> M.
Structure de la RAM :
Si on lit un mot d’un bloc de mémoire, on transfère ce bloc dans l’une des lignes du cache.
Si les lignes de cache sont moins nombreuses que les blocs de mémoire principal,
on utilise des algorithmes de correspondance entre les blocs de la RAM et les lignes de cache
o Correspondance directe :
La mémoire utile contient les données, où chaque ligne a une longueur de K mots.
Le répertoire comporte K lignes.
Chaque ligne L contient un bit de validité indiquant si des données sont disponibles dans L.
Chaque ligne L contient une clé permettant d’identifier la ligne souhaitée dans la RAM.
Le comparateur compare la clé et l’étiquette.
Avantages :
Simple, facile à réaliser
Bon résultats
Inconvénients :
Collisions (des adresses différentes ayant le même numéro d’index)
Correspondance associative :
Une ligne de données entre dans n’importe quelle entrée libre du cache
Adresse = étiquette + offset
Le contrôleur de cache vérifie en une seule opération si une étiquette est présente dans une des lignes du répertoire.
Inconvénients :
Cher
Complexe
o Correspondance mixte/associative par blocs :
Lorsqu’une adresse est présentée au cache, l’index référence simultanément une ligne par bloc
En une seule opération les comparateurs vérifient si l’étiquette est dans une des lignes
Avantages :
o FIFO (First In, First Out) : la ligne remplacée est la ligne la plus anciennement chargée.
o LRU (Least Recently Used) : la ligne remplacée est la ligne la moins récemment accédée.
Avantage : Cette politique est meilleure que la précédente car elle tient compte des accès effectués par le processeur au cache
Inconvénient : elle est coûteuse car nécessite de maintenir l’ordre des accès réalisés.
o NMRU (Not Most Recently Used) : la ligne remplacée n’est pas la plus récemment utilisée.
Dans cette politique, la ligne remplacée est une ligne choisie au hasard dans l’ensemble des lignes du cache, hormis la ligne la plus récemment accédée.
Avantage : implémentation facile, la plus performante
Type de miss :
o Obligatoires : lors de l’accès à une adresse pour la 1ère fois
o De capacité : cache plein
o De conflit : 2 adresses distinctes désignent une même ligne du cache
Niveaux de cache :
o L3 : la RAM
Circuits de l’arithmétique binaire
Opération Algorithme/Formules Schéma
N bits
Additionneur
Soustracteur
𝑎 − 𝑏 = 𝑎 + 𝑏̅ + 1
Multiplication