1 / 78

Interfacce di comunicazione

PERIFERICA. CPU. INTERFACCIA. INTERFACCIA. Interfacce di comunicazione. Interfacce Parallele: veloci, pochi metri di distanza, cavi con molti fili. Standard: CENTRONICS IEEE 488 (HPIB) (più periferiche sullo stesso canale)

nitara
Download Presentation

Interfacce di comunicazione

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. PERIFERICA CPU INTERFACCIA INTERFACCIA Interfacce di comunicazione Interfacce Parallele: veloci, pochi metri di distanza, cavi con molti fili. Standard: • CENTRONICS • IEEE 488 (HPIB) (più periferiche sullo stesso canale) Interfacce Seriali: più lente, pochi fili, notevole distanza. Standard: • Current Loop (1 km), 1200 bit per secondo (bps o baud); • RS 232 -1212V (100 m), 19200 bps • RS422 1 km, 100.000 bps • USB 1 e 2 (Universal Serial Bus) 3-5m, da 1.5 a 480 Mbit/s

  2. INTER. RETE DISCO NASTRO CD/DVD MASTERIZ- ZATORE BUS MEMORIA CPU MEMORIA AGG. SERIALE PARALL. Cenni sulle architetture • Bus: canale di comunicazione in comune gestito dalla CPU; estensione esterna della linea di comunicazione tra CPU e memoria: ogni periferica è vista dalla CPU come elemento di memoria a indirizzi prefissati

  3. BUS Standard • Sul bus transitano dati, indirizzi e segnali di controllo • Standard: • ISA-EISA-PCI: Personal Computer • NU-BUS: Macintosh • MULTIBUS: Workstation • VME-BUS: Workstation • SCSI (SCSI-1, SCSI-2, …) • AGP • XPCI • PCMCIA

  4. Evoluzione della macchina di Von Neumann • L’evoluzione tecnologica aumenta la velocità di elaborazione, producendo CPU sempre più rapide e con parallelismo di dati e di indirizzamento maggiori, ma non può migliorare drasticamente le prestazioni del calcolatore senza superare un limite intrinseco della struttura di Von Neumann: la stretta sequenzialità delle operazioni gestite dalla CPU • Ogni attività viene tradotta in un’opportuna sequenza di istruzioni macchina: una dopo l’altra vengono acquisite, decodificate ed eseguite

  5. Evoluzione della macchina di Von Neumann Esempi: • due unità funzionalmente autonome, la CPU e un dispositivo di I/O, sono costrette a sequenzializzare le proprie attività impiegando un tempo pari alla somma dei singoli tempi di lavoro; • acquisizione, decodifica ed esecuzione delle istruzioni da parte della CPU, pur logicamente separate e quindi effettuabili in parallelo su istruzioni diverse, vengono eseguite in modo strettamente sequenziale; • accessi a memoria centrale: rigorosa sequenzialità di accesso senza prevedere alcun meccanismo per anticipare le richieste della CPU e per effettuare accessi a memoria in parallelo con le operazioni della CPU stessa; • programma di calcolo, ad esempio su matrici, che richiede alla CPU di ripetere le stesse istruzioni per eseguire gli stessi calcoli su dati diversi: spreco di tempo per acquisire ed interpretare le stesse istruzioni, a causa del fatto che l’unità logico-aritmetica opera solo su coppie di valori

  6. Evoluzione della macchina di Von Neumann • In conclusione, il limite intrinseco della struttura di Von Neumann è la totale mancanza di parallelismo, che comporta un tempo globale di elaborazione pari alla somma dei tempi richiesti da ogni singola attività • Le evoluzioni architetturali della macchina di Von Neumann tendono a consentire diversi livelli di parallelismo Colloquio CPU - periferiche • Un primo metodo prevede una efficiente gestione delle operazioni di input/output mediante tre tecniche con diverso livello di parallelismo: • l’interfaccia segnala la terminazione delle operazioni di I/O alla CPU (interruzione); • l’interfaccia trasferisce informazioni direttamente con la memoria senza richiedere l’intervento della CPU (DMA = Direct Memory Access);

  7. CPU MEMORIA CENTRALE CANALE 1 CANALE 2 PERIFERICA PERIFERICA Colloquio CPU - periferiche • gestione tramite canale di input/output: si tratta di un dispositivo dedicato a funzioni di scambio di informazioni con le periferiche che consente di svincolare la CPU da operazioni di sincronizzazione, transcodifica, formattazione dei dati, ecc.

  8. Pipeline • Una parallelizzazione del funzionamento della CPU si può ottenere con l’utilizzo del concetto di pipeline con diverse sottounità dedicate alle varie fasi di acquisizione, decodifica ed esecuzione delle istruzioni e collegate fra loro secondo lo schema della catena di montaggio • Si sovrappone il tempo di esecuzione dell’istruzione i-ma, con il tempo di decodifica relativo all’istruzione (i+1)-ma, con il tempo di fetch dell’operando dell’istruzione (i+2)-ma e col tempo di fetch del codice operativo dell’istruzione (i+3)-ma • La pipeline può essere anche di tipo aritmetico: si suddivide l’unità di calcolo in più stadi in cascata per operare su più dati consecutivi in contemporanea, eseguendo su ogni dato una parte del calcolo richiesto

  9. Esecuzione Decodifica Fetch Operando Fetch Op. Code Tempo Fasi dell’unità di controllo Fasi di una istruzione nella macchina di Von Neumann Fasi in una soluzione pipeline Esecuzione Decodifica Fetch Operando Fetch Op. Code Tempo

  10. Evoluzione della macchina di Von Neumann • In maniera più formale, si può definire il concetto di parallelismo in base ai due flussi di informazione normalmente presenti in un calcolatore: • flusso dei dati (data stream); • flusso delle istruzioni (instruction stream) • Nella macchina di Von Neumann si ha un flusso di dati ed istruzioni singoli: la macchina è classificata come SISD (Single Instruction stream, Single Data stream) • La macchina SIMD (Single Instruction stream, Multiple Data stream) è caratterizzata da una sola unità di controllo e da più unità aritmetiche indipendenti che effettuano quindi le stesse operazioni su dati diversi

  11. Evoluzione della macchina di Von Neumann • È adatta, ad esempio, ad elaborazioni matriciali che richiedano la valutazione di espressioni matematiche identiche su grandi quantità di numeri diversi • Le operazioni sui dati diversi avvengono nello stesso istante ed ogni unità di elaborazione (PE: Processing Element) ha una memoria privata; i vari PE sono collegati tra loro per scambiarsi le informazioni • Le macchine MIMD (Multiple Instruction stream, Multiple Data stream) prevedono la replicazione dell’intera struttura della macchina di Von Neumann per ottenere architetture multiprocessore • Si tratta di un calcolatore costituito da più unità di controllo e unità di calcolo che operano in parallelo su flussi di dati diversi effettuando elaborazioni anch’esse, a priori, diverse

  12. Elaborazione SISD MISD SIMD MIMD Macchina di Von Neumann Strutture pipeline Strutture array Sistemi multi-processore Sistemi multi-computer Architettura degli elaboratori: tassonomia generale Parallela Seriale

  13. dati dati Memoria dati dati Memoria istruzioni istruzioni Processore SISD Processori MISD dati dati Memoria dati istruzioni dati Memoria istruzioni Processore Processore Processore MIMD Processori SIMD Classificazione delle architetture degli elaboratori

  14. Evoluzione della macchina di Von Neumann Sistema Multiprocessore MEMORIA COMUNE I/O COMUNE BUS COMUNE CPU LOCALE MEMORIA LOCALE BUS LOCALE 2 BUS LOCALE n BUS LOCALE 1 … … I/O LOCALE

  15. 1-cubo 2-cubo 3-cubo Evoluzione della macchina di Von Neumann • N-cubo: 2N processori ai vertici di un N-cubo • Ogni processore è connesso con N vicini • Sono necessari al più N passi per portare dati da un processore ad un altro.

  16. Sistemi operativi • Definizione intuitiva: insieme di programmi che rendono facilmente disponibile all’utente le potenzialità offerte dalla macchina • Sistema operativo = nucleo (kernel) + software di base • Il sistema operativo è fornito dal costruttore della macchina (non gratuitamente)

  17. Funzioni del sistema operativo • Gestione lavori • Gestione delle risorse • Ausili per la messa a punto dei programmi • Ausili per la gestione dei dati • Funzioni di: • contabilità • sicurezza • recupero

  18. Funzioni del kernel • Il kernel del sistema operativo è un programma che va in esecuzione all’accensione della macchina (bootstrapping) e svolge le funzioni: • controllo dell’esecuzione dei programmi dell’utente • amministrazione delle risorse hardware nei sistemi multiutente • Il kernel impiega del tempo di CPU che viene sottratto all’esecuzione dei programmi utente: sovraccarico (overhead)

  19. Funzioni del software di base • Il software di base è un insieme di programmi che servono a facilitare la creazione di programmi da parte degli utenti della macchina • L’utente si serve del software di base per: • editare un file (insieme ordinato di dati) • compilare • duplicare un file • cancellare un file • visualizzare un file • trasferire un file

  20. Funzioni del software di base • utilizzare le periferiche (nastri, stampanti, …) • colloquiare con altri utenti • utilizzare la rete locale • inviare e ricevere posta • giocare • …

  21. HARDWARE SISTEMA OPERATIVO PROGRAMMI UTENTE Sistemi operativi • Sistema operativo come interfaccia tra macchina (hardware) e utente • L’hardware della macchina è trasparente all’utente • Saper utilizzare una macchina significa saper utilizzare il suo sistema operativo • Macchine molto diverse a livello hardware supportano lo stesso sistema operativo: svolge le stesse funzioni e si presenta all’utente nello stesso modo

  22. Classificazione dei sistemi operativi • Dedicati • A lotti (batch) • Multiprogrammazione • Interattivi (time-sharing) • Real-time • Per macchine multiprocessori (sistemi concorrenti) • L’ordine è cronologico • I sistemi operativi integrano funzioni per la gestione delle reti di calcolatori

  23. Sistemi operativi dedicati • I primi sistemi operativi (tornati in uso con i PC) • La macchina viene utilizzata da un utente per volta che può eseguire un solo programma per volta (applicativo o di base) • Nucleo molto semplice

  24. Sistemi operativi per gestione a lotti (batch) • Nati per meglio sfruttare la velocità crescente delle macchine: eliminano i tempi morti tra programmi successivi di utenti diversi • Un insieme di lavori (jobs) viene accorpato in un lotto (batch) e trasferito su una unità di ingresso veloce (disco) • Ogni lavoro viene caricato ed eseguito in sequenza senza interruzioni fino al termine • La CPU viene comunque sottoutilizzata perché, durante le operazione di I/O, deve adeguarsi alla bassa velocità delle periferiche

  25. CPU MEMORIA CANALE PERIFERICHE Multiprogrammazione • Più di un programma è caricato in memoria contemporaneamente • Le operazione di I/O di un programma sono sovrapposte temporalmente all’esecuzione delle istruzioni di un altro programma • Ciò è possibile grazie al canale che gestisce l’I/O

  26. Multiprogrammazione • Quando un processo in esecuzione (running) chiede un servizio di I/O al sistema operativo si blocca in attesa del risultato • Il sistema operativo avvia l’operazione di I/O e manda in esecuzione un altro processo che si trova in stato di pronto (ready) • Il sistema operativo mantiene una o più code di processi gestite secondo la priorità assegnata a ciascuno di essi (scheduling) • CPU ben sfruttata • Multiprogrammazione incapace di differenziare fra programmi che richiedono un uso frequente delle periferiche, da quelli che richiedono l’utilizzo per lunghi tempi della CPU (es. programmi di elaborazione matematica su dati ricevuti inizialmente). Quando uno di questi programmi conquista la CPU non la rilascia, bloccando gli altri programmi

  27. Sistemi operativi interattivi (time sharing) • Il tempo di utilizzo della CPU viene suddiviso dal sistema operativo in fette (time slice con durata di 100-800 ms) • Ogni processo in memoria riceve a turno l’uso della CPU per una fetta di tempo • Usati soprattutto per lo sviluppo di software in ambiente multiutente

  28. RIFLETTE SCRIVE RIFLETTE SCRIVE … ESEGUE COMPILA Sistemi operativi interattivi (time sharing) e ha l’impressione di avere la macchina a sua completa disposizione • Ogni processo ottiene ciclicamente l’utilizzo della CPU • Overhead per la gestione della CPU principalmente con molti processi attivi • L’utente lavora al terminale

  29. Time sharing: Stati di un processo • Processo: sequenza di istruzioni eseguite dal processore per eseguire un programma

  30. Time sharing: Stato dei programmi

  31. Running Blocked S.O. Dedicato t Running Ready Blocked S.O. Multi programmato t Running Ready Blocked S.O. Time Sharing t Time sharing: Stato dei programmi

  32. Sistemi operativi real time • Sistemi operativi al servizio di una specifica applicazione che ha dei vincoli precisi nei tempi di risposta • Il sistema operativo deve garantire un tempo massimo entro il quale mandare in esecuzione un programma a seguito di una richiesta in tal senso • gestione di strumentazione • controllo di processo • gestione di allarme • sistemi transazionali (banche, prenotazione) • In generale si ha un sistema real time quando il tempo che passa dalla richiesta di esecuzione di un processo al completamento della stessa è minore del tempo fissato

  33. Sistemi operativi per sistemi concorrenti • Il sistema operativo si prende carico di assegnare le diverse CPU a processori diversi nonché di gestire le risorse in comune tra le varie CPU (memoria condivisa, bus, periferiche) • A sua volta il sistema operativo può essere eseguito contemporaneamente da più CPU oppure da una sola (master) • Nell’ultimo caso, le CPU hanno compiti differenti

  34. Sistemi operativi • UNIX: AIX (IBM), XENIX (IBM), HP-UX (HP), ULTRIX (Digital), SOLARIS (SUN), SCO (PC), IRIX (Silicon Graphics) • LINUX (PC), • MAC OS (MAC) • WINDOWS (95/98/ME, NT, 2000, XP) (PC) • WINDOWS CE (Palmari e dispositivi portatili) • …

  35. La creazione di un programma compilato • Sono necessari alcuni strumenti contenuti nel software di base • Alcuni sistemi operativi dispongono di raffinati mezzi software per l’ausilio della programmazione • L’insieme minimo necessario per lo sviluppo di software realizza le seguenti funzioni: • editing dei testi dei programmi (sorgenti) • compilazione dei sorgenti  oggetti • linking dei vari oggetti (alcuni dei quali forniti con il compilatore)  eseguibile • caricamento dell’eseguibile in memoria • esecuzione del programma • eventuale debugging

  36. La creazione di un programma compilato • I file sorgente, i file oggetto, i file eseguibili vengono memorizzati su supporto di memoria magnetico (disco). Sono caratterizzati da nome ed estensione: • pippo.c • pippo.o • pippo • Ad ognuno viene inoltre associata la dimensione, i diritti di accesso, ecc. • Il sistema operativo tratta tutti i file allo stesso modo, a prescindere dalla loro natura. Possono pertanto essere copiati, cancellati, spezzati, trasferiti da un direttorio ad un altro, ecc.

  37. I programmi interpretati • I programmi scritti in alcuni linguaggi di programmazione (BASIC, PROLOG ed altri) possono essere DIRETTAMENTE ESEGUITI da un programma denominato INTERPRETE • L’interprete traduce ogni istruzione del linguaggio riportata nel file sorgente e ne comanda l’esecuzione • Spesso all’interprete viene associato un programma di scrittura delle istruzioni (EDITOR), in modo da creare un AMBIENTE DI SVILUPPO UNICO

  38. Confronto fra Interpretazione e Compilazione

  39. Confronto fra Interpretazione e Compilazione

  40. Confronto fra Interpretazione e Compilazione

  41. Creazione del file sorgente: gli editor • Si tratta di programmi che interagiscono con il programmatore al terminale e gli permettono di creare e modificare TESTI (file in cui compaiono solo caratteri ASCII) • Funzioni principali degli editor • INSERIRE caratteri • CANCELLARE • VISUALIZZARE • RICERCARE • SOSTITUIRE • COPIARE • ecc. • Gli EDITOR GUIDATI DALLA SINTASSI generano direttamente i COSTRUTTI corretti, per un determinato linguaggio, con un unico comando: garantiscono la correttezza sintattica del programma in corso di stesura

  42. Fasi della compilazione

  43. ANALISI LESSICALE Scansione del testo e individuazione degli ELEMENTI DI BASE del linguaggio: VARIABILI, COSTANTI, PAROLE CHIAVE, DELIMITATORI, etc. Viene creata una TAVOLA DEI SIMBOLI per le variabili Il file sorgente viene trasformato in una STRINGA (successione) di SIMBOLI Esempio: Tavola dei simboli generata dall’equazione seguente ALFA:=BETA+3.1415*DELTA;

  44. := + ALFA * BETA 3.1415 DELTA ANALISI SINTATTICA È guidata dalla DEFINIZIONE FORMALE del Linguaggio di Programmazione (GRAMMATICA) Viene riconosciuta la STRUTTURA del programma Viene generata una forma intermedia (ALBERO, MATRICE) corrispondente alla struttura sintattica del programma Inoltre vengono generate TAVOLE DEI SIMBOLI con tutti gli identificatori Esempio di albero: ALFA:=BETA+3.1415*DELTA;

  45. ANALISI SEMANTICA Oltre che essere lessicalmente e sintatticamente corretto, il programma deve esserlo anche semanticamente L’analisi semantica effettua i seguenti controlli: Verifica la COMPATIBILITÀ DI TIPO di espressioni legate da operatori e la CORRETTEZZA delle DICHIARAZIONI degli identificatori Queste verifiche vengono effettuate sulla forma intermedia generata in precedenza (ALBERO, MATRICE) Questi controlli possono essere più o meno approfonditi a seconda delle caratteristiche del linguaggio Una vera analisi semantica permetterebbe di individuare il SIGNIFICATO del programma, cioè il suo scopo

  46. GENERAZIONE del CODICE e OTTIMIZZAZIONE Dalla forma intermedia prodotta precedentemente (ALBERO) si genera un CODICE DI BASSO LIVELLO, ma ancora indipendente dalla CPU per la quale si vuole che il codice macchina sia generato Questo codice può essere ottimizzato con facilità e quindi può essere tradotto nelle istruzioni della particolare CPU Si può anche effettuare una POST-OTTIMIZZAZIONE L’OTTIMIZZAZIONE, che può essere assente, riguarda la dimensione del codice prodotto ed il relativo tempo di calcolo La SEQUENZA delle varie fasi della compilazione ed il PESO di ciascuna di esse dipendono dal tipo di compilatore (il numero di passate specifica il numero di volte in cui gli statement del programma sorgente vengono esaminati)

  47. Assemblatori • Come i compilatori traducono in codice eseguibile programmi scritti in un linguaggio scritto ad alto livello, così gli ASSEMBLATORI traducono programmi scritti nel linguaggio ASSEMBLY (di basso livello) proprio del processore specifico • Mentre per i linguaggi ad alto livello ad ogni STATEMENT corrispondono più istruzioni eseguibili da parte del microprocessore, per quelli a basso livello si ha una corrispondenzaUNO A UNO fra STATEMENT del file sorgente ed ISTRUZIONI eseguibili • Gli assemblatori sono tipicamente a due passate: nella prima viene effettuata l’analisi delle istruzioni e creata la tavola dei simboli; la seconda passata produce il codice in linguaggio macchina per il processore • I MACROASSEMBLATORI ammettono MACROISTRUZIONI, istruzioni definite dal programmatore a cui vengono fatte corrispondere più statement del linguaggio ASSEMBLY

  48. Precompilatori - Metacompilatori • I precompilatori operano una traduzione SORGENTE - SORGENTE • Sono usati per trasformare un programma scritto in un linguaggio di ALTO LIVELLO (codificato da una GRAMMATICA) in un programma scritto in un linguaggio per cui esiste il compilatore • Realizzano prima l’ANALISILESSICALE, SINTATTICA e SEMANTICA e poi la traduzione nel linguaggio TARGET • I metacompilatori sono compilatori che, a partire dalla definizione formale di un linguaggio (GRAMMATICA), creano un COMPILATORE per il linguaggio stesso (più frequentemente un PRECOMPILATORE). Esempio: YACC (Yet Another Compiler Compiler) di UNIX

  49. Linker e Loader • Il linker è un programma incaricato della fusione in un unico modulo ESEGUIBILE di più moduli OGGETTO separatamente compilati • Permette l’uso di LIBRERIE preconfezionate • Permette di mettere insieme il lavoro svolto da più persone che collaborano allo stesso progetto oppure di ricomporre un lavoro scomposto, in fase di progetto, in più sottoparti • Permette infine di mettere insieme moduli creati utilizzando linguaggi di programmazione diversi

  50. Linker e Loader Il loader: • trasferisce in memoria il programma eseguibile • carica nel Program Counter l’indirizzo della prima istruzione eseguibile • Inizia l’esecuzione Il linker può produrre: • CODICE BINARIO ASSOLUTO: tutti gli indirizzi sono stabiliti in fase di linking • CODICE BINARIO RILOCABILE: gli indirizzi sono riferiti ad un’origine di INDIRIZZO 0 (inizio del programma); successivamente tutti gli indirizzi vengono riaggiornati per tener conto dell’indirizzo reale, oppure vengono usate tecniche di indirizzamento indicizzato o con spostamento rispetto al valore attuale del Program Counter; il LOADER provvede a caricare i registri base con l’indirizzo di inizio reale

More Related