8

Mi stavo chiedendo quali altre architetture CPU sono disponibili oltre a INTEL & AMD. Quindi, trovato List of CPU architectures su Wikipedia.Perché abbiamo bisogno di architetture CPU diverse per server e mini/mainframe e mixed-core?

Classifica le architetture della CPU nelle seguenti categorie.

  1. architetture di CPU embedded
  2. Microcomputer architetture di CPU
  3. Stazione di lavoro/Server architetture di CPU
  4. Mini/Mainframe architetture di CPU
  5. misti architetture di CPU core

stavo analizzando i loro scopi e avere pochi dubbi Prendendo CPU Microcomputer (PC) Architettura come riferimento e il confronto ad altri abbiamo:

architettura della CPU embedded:

  • Si tratta di un mondo completamente nuovo.
  • sistemi embedded sono piccola & fanno compito ben preciso per lo più in tempo reale & bassa potenza consumo quindi non hanno bisogno così tanti & tali registri ampie disponibili in una CPU microcomputer (tipico PC). In altre parole, abbiamo bisogno di una nuova piccola architettura &. Quindi nuova architettura & nuova istruzione RISC.
  • Il punto precedente chiarisce anche perché abbiamo bisogno di un sistema operativo separato (RTOS). architetture di CPU

Workstation/Server

  • non so che cosa è una stazione di lavoro. Qualcuno chiarisce riguardo la workstation.
  • A partire dal server. È dedicato all'esecuzione di un software specifico (software server come httpd, mysql ecc.). Anche se altri processi sono eseguiti, dobbiamo dare priorità al processo del server, quindi è necessario un nuovo schema di pianificazione e quindi abbiamo bisogno di un sistema operativo diverso da quello generale. Se si dispone di altri punti per la necessità del sistema operativo del server, si prega di citare.
  • Ma non capisco perché abbiamo bisogno di una nuova architettura della CPU. Perché l'architettura CPU del microcomputer non funziona. Qualcuno può chiarire?

architetture Mini/Mainframe CPU

  • Anche in questo caso non so che cosa sono questi & quello miniframes o mainframe utilizzati per? So solo che sono molto grandi e occupano il piano completo. Ma non ho mai letto su alcuni problemi del mondo reale che stanno cercando di risolvere. Se qualcuno lavora su uno di questi. Condividi le tue conoscenze.
  • Qualcuno può chiarire il suo scopo & perché non è adatto l'archivoscopio della CPU del microcomputer?
  • C'è un nuovo tipo di sistema operativo anche per questo? Perché?

nucleo misto architetture di CPU

  • mai sentito parlare di questi.

Se possibile, mantenere la risposta in questo formato:

architetture di CPU XYZ

  • Scopo del XYZ
  • necessità di una nuova architettura. perché l'architettura CPU CPU corrente non può funzionare? Raggiungono 3GHZ & hanno fino a 8 core.
  • Necessità di un nuovo sistema operativo Perché è necessario un nuovo tipo di sistema operativo per questo tipo di archivi?

EDIT:

Ragazzi, questo non è un problema a casa. Non posso fare nulla per farti credere. Non so se la domanda non è chiara o qualcos'altro, ma sono interessato solo a dettagli tecnici specifici.

Lasciatemi mettere una parte di questa domanda in un altro modo. Sei in un'intervista e se l'intervistatore ti chiede "dimmi, i processori del microcomputer sono veloci & molto capaci ei nostri sistemi operativi per PC sono buoni .Perché abbiamo bisogno di un'architettura diversa come SPARC, Itanium e abbiamo bisogno di un sistema operativo diverso come Windows Server? per i server? ". Cosa risponderesti? Spero di aver capito il mio punto.

+1

Questa potrebbe essere una domanda che ti viene posta meglio su Errore server. – kevchadders

+0

Questi compiti? Perché hai bisogno delle risposte per avere quel formato? –

+1

L'architettura del PC è un disastro, qualsiasi sviluppatore del sistema operativo lo direbbe. Ma la produzione in serie di scatole per PC grigie con un'aspettativa di vita inferiore a un anno dà alle persone l'impressione che non ci sia mai stato niente di meglio e che nessuno vuole altro. È marketing. –

risposta

2

Mainframe

  • Processi massiccia quantità di informazioni con un sacco di istruzioni che eseguono allo stesso tempo.
  • Un computer di casa (PC/desktop) non è in grado di gestire un sacco di codice allo stesso tempo, nemmeno elaborando molti dati.
  • Un sistema operativo specifico per la particolare architettura lo rende più efficiente per l'hardware specifico.

HW Architettura Esempio

Un previsioni elaborazione mainframe in tempo reale informazioni da sensori diversi stati.

OS Esempio di architettura

Diciamo che il normale comando di disegnare qualcosa è: PAREGGIO "testo". Questo è su un normale PC.Ora, diciamo che hai molti schermi e vuoi disegnare la stessa cosa su ognuno di essi, con questo PC dovrai chiamare DRAW "testo" per ognuno. Tuttavia, si potrebbe semplicemente creare un hardware con un comando "DRAWS" che disegna automaticamente lo stesso testo su ogni schermata: DRAWS "text"

0

In breve: qualsiasi progetto deve soddisfare alcuni requisiti. Nel soddisfare qualsiasi complesso insieme di requisiti ci dovranno essere dei compromessi, soddisfare il requisito X all'un ° grado potrebbe rendere impossibile soddisfare il requisito Y. Quindi, sia che si parli di CPU o di lavatrici ci sarà varietà di progetta per soddisfare una varietà di requisiti.

La situazione è resa più complessa, ma non sostanzialmente modificata, dall'evoluzione delle tecnologie e dei requisiti nel tempo.

-1

Potresti ad esempio risolvere tutti i problemi di trasporto nel mondo se l'unico veicolo fosse un pick-up toyota a trasmissione automatica (i vecchi piccoli non erano quelli più recenti)?

Perché mai avresti bisogno di qualcos'altro?

Beh, non tutti possono guidare un bastone, non tutti si adattano a un toyota (sto pensando all'altezza più che alla larghezza). Non puoi portare la famiglia. Non puoi trasportare oggetti di grandi dimensioni, certamente non in modo efficiente. Come fai a vendere i camion al rivenditore? Guidali uno alla volta?

Se si utilizza un processore di classe server nel telecomando del televisore avremmo bisogno di una prolunga e di una ventola di raffreddamento, o avremmo bisogno di sostituire le batterie su ogni pulsante e attendere che si avvii prima.

Rtose e sistemi operativi, stessa risposta di cui sopra. Non usi un rtos in un microcontrollore a bassa potenza, non normalmente, spesso hai rom misurato in centinaia di byte e ram misurato in decine di byte. Non c'è spazio per il bloatware. Software appositamente costruito appositamente realizzato su misura.

Guardare la situazione ARM vs Intel ora, Intel è orribile nella progettazione hardware, il loro successo è puramente nelle sale conferenza e nelle telecamere non in hardware su una scheda madre. È possibile ottenere le stesse prestazioni utilizzando set di istruzioni alternative di fornitori alternativi a una frazione del costo iniziale e operativo. Perché accontentarsi di una soluzione antica?

Pochi sistemi operativi sono affidabili, come per i compilatori e l'hardware. Alcuni software e hardware sono progettati per prestazioni o affidabilità, ma non necessariamente per la facilità d'uso. Non voglio che la leva del carrello di atterraggio impedisca al pilota di raggiungere il mouse e controllare il pulsante OK sul "sei sicuro di voler dispiegare la finestra del carrello di atterraggio", e poi guardare la rotazione della clessidra mentre pensa a se farlo o no.

Per lo stesso motivo per cui avete bisogno di un pickup per alcuni lavori e di un trattore-rimorchio per altri, avete bisogno di una classe di macchine (e software) per il desktop di casa, un altro per server di piccole-medie imprese e un altro per grandi aziende . Non puoi semplicemente rendere un pickup più piccolo e infinitamente più grande a seconda del lavoro, hai bisogno di più ruote a volte, involucri o meno, più o meno sedili, prese di forza, idraulici o meno, ecc. A seconda del compito per cui è stato progettato.

Dove saremmo se ci fossimo fermati sul processore a 8 bit con CP/M in esecuzione? Risolve tutti i problemi del mondo perché mai avrebbe bisogno di sviluppare un'alternativa? Il 100% delle innovazioni, i risparmi sui costi, l'aumento delle prestazioni sono il risultato di mettere in discussione la soluzione corrente e provare qualcosa di diverso.

Una taglia per tutti non si adatta bene.

+0

-1 Vi ringrazio per il vostro tempo e impegno per farmi capire le cose. Ma non sono così stupido da capire perché abbiamo bisogno di soluzioni diverse. Risolvono diversi problemi. Ma questa è solo una panoramica. Sto cercando dettagli tecnici specifici e non filosofia sul perché dobbiamo fare cose diverse. Ecco perché invece di chiedere solo quello di cui ho bisogno ho scritto i dettagli tecnici di ciò che so e questo è il motivo per cui ho anche richiesto un formato di risposta. – claws

+0

Lasciami dire così. Sei in un'intervista e se l'intervistatore ti chiede "dimmi, i processori dei microcomputer sono veloci e molto capaci ei nostri sistemi operativi per PC sono buoni." Perché abbiamo bisogno di un'architettura diversa come SPARC, Itanium e abbiamo bisogno di un sistema operativo diverso come Windows Server per i server? ". Non è questa una parte della mia domanda? Sarebbe appropriato se io dessi la risposta che hai dato? – claws

9

Le workstation sono ormai quasi estinte. Fondamentalmente erano computer di fascia alta simili ai desktop, ma con alcune importanti differenze, come i processori RISC, le unità SCSI invece di IDE e l'esecuzione di UNIX o (più tardi) linea NT di sistemi operativi Windows. Mac Pro può essere visto come una forma attuale di workstation.

I mainframe sono grandi (anche se non occupano necessariamente un intero piano) computer. Forniscono un'elevata disponibilità (la maggior parte delle parti di un mainframe, inclusi processori e memoria, possono essere sostituite senza che il sistema scenda) e la compatibilità all'indietro (molti mainframe moderni possono eseguire software non modificato scritto per i mainframe '70).

Il più grande vantaggio dell'architettura x86 è la compatibilità con l'architettura x86. CISC è generalmente considerato obsoleto, per questo la maggior parte delle architetture moderne sono basate su RISC. Anche i nuovi processori Intel AMD & sono RISC sotto il cofano.

In passato, il divario tra i computer di casa e l'hardware "professionale" era molto più grande di oggi, quindi l'hardware del "microcomputer" era inadeguato per i server. Quando sono state create la maggior parte delle architetture "server" RISC (SPARC, PowerPC, MIPS, Alpha), la maggior parte dei chip del microcomputer erano ancora a 16 bit. Primo chip PC a 64 bit (AMD Opteron) spedito oltre 10 anni dopo MIPS R4000. Lo stesso dicasi per i sistemi operativi: i sistemi operativi per PC (DOS e non NT Windows) erano semplicemente inadeguati per i server.

Nei sistemi embedded, i chip x86 semplicemente non sono abbastanza efficienti. I processori ARM offrono una potenza di elaborazione paragonabile utilizzando molta meno energia.

+0

+1 che è stato utile. ma puoi fornire alcuni riferimenti per supportare questo punto "Anche i nuovi processori Intel e AMD sono RISC sotto il cofano". – claws

+0

http://en.wikipedia.org/wiki/IA-32#Current_implementations –

+0

Ma, forse, dovrei dire "sono in qualche modo simili a RISC sotto il cofano". –

6

Non so cosa sia una workstation. Qualcuno ha chiarito la workstation .

workstation usato per essere una classe di sistemi destinati ad essere utilizzati dagli utenti singoli (o alternata) per compiti che richiedevano maggiore potenza di calcolo di un PC offerto. Fondamentalmente si estinsero negli anni '90 in quanto le economie di scala in R & D consentivano all'hardware del PC standard di offrire le stesse (e alla fine più) prestazioni a un prezzo molto più basso.

Le workstation sono state realizzate da aziende come Sun, SGI e HP. Solitamente eseguivano una variante Unix proprietaria e spesso disponevano anche di hardware specializzato. Le applicazioni tipiche erano il calcolo scientifico, il CAD e la grafica di fascia alta.

Le "architetture di workstation" sono state caratterizzate dall'obiettivo di offrire prestazioni elevate per le applicazioni per singolo utente con un prezzo come considerazione molto secondaria.

4

Probabilmente contribuirà a considerare come era il mondo vent'anni fa.

Allora, non era costoso progettare e costruire CPU di livello mondiale e così tante altre aziende avevano le proprie. Ciò che è accaduto da quando è ampiamente spiegabile dal prezzo crescente del design e dei fab della CPU, il che significa che quello che è stato venduto in quantità molto grandi è sopravvissuto molto meglio di quello che non lo era.

Ci sono stati mainframe, principalmente da IBM. Questi specializzati in alta velocità e affidabilità. Non si farebbe niente di speciale con loro, essendo molto più conveniente usare macchine a minor costo, ma erano, e lo sono, ottime per transazioni di tipo commerciale ad alto volume del tipo programmato in COBOL. Le banche usano molti di questi. Questi sono sistemi specializzati. Inoltre, eseguono programmi da lungo tempo, quindi la compatibilità con i primi IBM 360, in architettura e OS, è molto più importante della compatibilità con x86.

In quel momento, c'erano minicomputer, che erano più piccoli dei mainframe, generalmente più facili da usare e più grandi di qualsiasi cosa personale. Questi avevano le proprie CPU e sistemi operativi. Credo che stessero morendo in quel momento, e sono per lo più morti adesso. La prima azienda di minicomputer, Digital Equipment Corporation, fu alla fine acquistata da Compaq, un produttore di PC. Tendevano ad avere sistemi operativi speciali.

C'erano anche postazioni di lavoro, che erano principalmente intese come personal computer per le persone che avevano bisogno di molta potenza computazionale. Avevano CPU progettate in modo considerevole rispetto a quelle di Intel in generale, e in quel momento significavano che potevano girare molto più velocemente. Un'altra forma di workstation era la Lisp Machine, disponibile almeno alla fine degli anni '80 da Symbolics e Texas Instruments. Queste erano CPU progettate per eseguire Lisp in modo efficiente. Alcune di queste architetture rimangono, ma col passare del tempo è diventato molto meno efficace dal punto di vista dei costi. Ad eccezione delle macchine Lisp, queste tendevano ad eseguire versioni di Unix.

Il personal computer compatibile IBM standard dell'epoca non era poi così potente e la complessità dell'architettura Intel lo ha trattenuto considerevolmente. Questo è cambiato. I Macintoshes del tempo giravano sulle architetture Motorola 680x0, che offrivano vantaggi significativi in ​​termini di potenza computazionale. Successivamente, si sono spostati sull'architettura PowerPC avviata dalle workstation IBM.

Le CPU incorporate, come le conosciamo ora, risalgono alla fine degli anni '70. Sono stati caratterizzati da sistemi completi di fascia bassa con un basso numero di chip, preferibilmente usando poca energia. L'Intel 8080, quando uscì, era essenzialmente una CPU a tre chip e richiedeva chip aggiuntivi per ROM e RAM. L'8035 era un chip con CPU, ROM e RAM a bordo, in proporzione meno potenti, ma adatto a moltissime applicazioni.

I supercomputer disponevano di CPU progettate a mano ed erano notevoli per rendere il calcolo parallelo il più semplice possibile, nonché l'ottimizzazione della CPU per la moltiplicazione (principalmente) a virgola mobile.

Da allora, i mainframe sono rimasti nella loro nicchia, con molto successo, e il minicomputer e le workstation sono stati schiacciati male. Alcune CPU della workstation rimangono in giro, in parte per motivi storici. I Macintosh sono passati da PowerPC a Intel, anche se IIRC il PowerPC vive su Xbox 360 e su alcune macchine IBM. Le spese per mantenere aggiornato un buon sistema operativo sono cresciute ei moderni sistemi non mainframe tendono a utilizzare Microsoft Windows o Linux.

Anche i computer integrati sono migliorati. Ci sono ancora chip piccoli ed economici, ma l'architettura ARM è diventata sempre più importante. Era in alcuni primi netbook, ed è in iPhone, iPad e molti dispositivi simili. Ha il pregio di essere ragionevolmente potente con un basso consumo energetico, che lo rende molto adatto per i dispositivi portatili.

L'altro tipo di CPU che verrà utilizzato nei sistemi comuni è la GPU, progettata per eseguire l'elaborazione parallela specializzata ad alta velocità. Esistono piattaforme software per consentire a coloro che programmano di fare altre cose, sfruttando i loro punti di forza.

La differenza tra le versioni desktop e server dei sistemi operativi non è più fondamentale. Di solito, entrambi avranno lo stesso OS sottostante, ma il livello di interfaccia sarà molto diverso. Un desktop o laptop è progettato per essere facilmente utilizzabile da un utente, mentre un server deve essere amministrato da una persona che sta anche amministrando un sacco di altri server.

Prenderò una pugnalata al nucleo misto, ma potrei non essere preciso (le correzioni sono benvenute). La Sony Playstation 3 ha uno strano processore, con core diversi specializzati per scopi diversi. In teoria, questo è molto efficiente. Più praticamente, è molto difficile programmare un sistema misto-core, e sono piuttosto specializzati.Non penso che questo concetto abbia un futuro particolarmente brillante, ma sta facendo cose carine per le vendite di Sony nel presente.

+1

Può valere la pena notare che se si ritorna un po 'più avanti, i microprocessori non erano destinati ad essere utilizzati per compiti di "calcolo", ma piuttosto per compiti di controllo hardware che sarebbero stati fatti con logica discreta, o con bassa processori finali costruiti da logica discreta allo scopo di interfacciamento hardware. Mentre sarebbe stato possibile costruire un terminale di visualizzazione utilizzando una logica completamente discreta, ad esempio, la quantità di logica necessaria per costruire un processore paragonabile a un PIC di basso profilo e un'interfaccia che alla tastiera, al display e alla porta seriale potrebbe essere meno di ... – supercat

+0

... sarebbe stato necessario eseguire tutte le funzioni necessarie anche per un terminale relativamente semplice. – supercat

3

Sembra che la tua domanda e il tuo obiettivo siano davvero capire la storia dell'architettura dei computer. Se è vero, allora hai bisogno di questo libro. Essa dovrebbe contribuire a guadagnare la comprensione che si sta cercando:

http://www.amazon.com/Computer-Architecture-Concepts-Evolution-2/dp/0201105578

Dr. Brooks copre la storia dell'architettura del computer, l'aspetto iniziale di nuove idee e ripercorre lo sviluppo di queste idee attraverso macchine diverse su tempo.

4

Un'aggiunta per l'architettura della CPU integrata: devono essere generalmente più economiche dei processori tradizionali, in modo che non aumentino considerevolmente la vita del prodotto.

architetture di CPU core misti

  • Essi sono di solito utilizzati in cui v'è la necessità di un throughput elevato, velocità e/o requisiti di potenza inferiori - applicazioni embedded, DSP, la crittografia, il gioco, calcolo ad alte prestazioni .

  • Le architetture di nucleo miste offrono uno o più core specializzati che si adattano a un dominio problema specifico oltre al core General Purpose (GP). I nuclei specializzati possono essere utilizzati come acceleratori per una parte specifica dell'applicazione considerata il collo di bottiglia. Anche se si possono ottenere le stesse prestazioni aggiungendo più core GP, ciò potrebbe risultare poco pratico a causa della tecnologia utilizzata, delle dimensioni dei die, dei limiti di potenza, del calore dissipato o della programmabilità - i core specializzati fanno una cosa, o almeno un paio di cose, più velocemente e più efficiente di un core GP. Esistono per gli stessi motivi per cui le schede grafiche utilizzano un'architettura diversa nelle loro GPU.

  • I sistemi operativi mainstream sono scritti e ottimizzati per le CPU tradizionali. Sono compilati come target di un'architettura di processori mainstream. Inoltre, i core specializzati di solito non sono abbastanza generici per far funzionare il loro sistema operativo. Quindi non abbiamo bisogno esplicitamente di un nuovo sistema operativo, solo delle modifiche per consentire al sistema di riconoscere e utilizzare i core specializzati - tramite una libreria o un driver. L'utilizzo del core specializzato richiede una parziale ricompilazione in modo che il codice eseguibile sia rivolto al core specializzato.

Alcune note:

  • chip mainstream sono effettivamente misti-core. Dispongono di istruzioni MMX, SSE, SSE2, SSE3, istruzioni in virgola mobile e alcune estensioni crittografiche. Questo li rende effettivamente un'architettura "mista-core". Tuttavia, sono così popolari che sono inclusi nella categoria del processore del microcomputer. Pensa a AMD's Fusion e Intel Larrabbee.

  • x86 è così popolare perché ci sono molte ricerche, sforzi e investimenti per creare buoni strumenti (compilatori, debugger, ecc.) Per loro. Inoltre, la maggior parte dei programmi sono closed source e compilati per x86, quindi non è possibile eseguirli su qualsiasi altra architettura. Infine, un sacco di codice ha ottimizzazioni o supposizioni scritte a mano nel codice che verrà compilato ed eseguito su un x86. Ciò richiederebbe una parziale riscrittura dell'applicazione da compilare per un'architettura diversa.

  • Un'altra buona ragione per architetture diverse è il controllo e la stretta integrazione di diversi sottosistemi.IBM ha le proprie CPU (PowerPC), OS (AIX) e librerie, offrendo un pacchetto ottimizzato in modo ottimale a cui è difficile allontanarsi dopo averlo acquistato. Lo stesso vale per Sun (ora Oracle) con SPARC e Solaris e qualche anno fa con HP con HP-RISC e HP/UX. Non è male o niente del genere: offrono un pacchetto che si adatta esattamente alla tua applicazione e che sanno e può riprodursi facilmente se qualcosa va storto perché hanno familiarità con tutti gli aspetti del sistema, sia hardware che software.

Problemi correlati