Forum

Utilizzo della GPU M1 che riduce il pool di memoria?

m

majormike

Manifesto originale
15 maggio 2012
  • 31 gennaio 2021
Ciao,

Quanta RAM richiede l'M1 dal pool di memoria per eseguire la GPU?

Voglio ottenerlo per la produzione musicale e sarei felice con 16 concerti, ma non sono sicuro di quanta memoria utilizza la GPU, specialmente con un display esterno?

ordito9

8 giugno 2017
  • 31 gennaio 2021
Richiede solo pochi megabyte per eseguire un display, ma le GPU vengono utilizzate anche per l'apprendimento automatico, gli array di pixel e i calcoli specializzati. Dipende molto dal software che usi.

Guardati intorno nelle preferenze e vedi se riesci a individuare le impostazioni della GPU. Ad esempio, Photoshop può fare un uso massiccio delle GPU ma può anche essere disabilitato.
Reazioni:corazzato IN

Wizec

30 giugno 2019


  • 31 gennaio 2021
Per giocare a 1080p con impostazioni grafiche da alte a molto elevate con AA attivato, avrai bisogno di una memoria video da 4 GB a 6 GB

Di quanta memoria video (VRAM) hai bisogno per giocare nel 2021?

Scopri quanta memoria video (VRAM) è necessaria in una scheda grafica per giocare a diverse risoluzioni e impostazioni grafiche per i più recenti giochi AAA dei giorni nostri. La memoria video o VRAM è una DRAM (RAM dinamica) ad alta velocità utilizzata in schede grafiche o schede video discrete. Questa è una memoria buffer, solo... graphicscardhub.com
se non stai giocando, probabilmente solo poche centinaia di MB a seconda della risoluzione del monitor e della profondità del colore. Una volta raggiunto il 4K e milioni di colori, tuttavia, può diventare molto più alto, anche per attività come la navigazione sul Web:

L'unico potenziale problema che abbiamo riscontrato è stato durante i test di navigazione web 4K in cui la nostra registrazione ha mostrato che le schede video utilizzano fino a 1.260 MB di memoria video. Per metterlo in prospettiva, si tratta di circa 3 volte la quantità di memoria video che sarebbe stata utilizzata se avessimo eseguito le stesse attività su un monitor 1080p.

Requisiti e utilizzo del monitor 4K

I display 4K hanno circa quattro volte il numero di pixel di un display 1080p standard, il che si traduce in un enorme miglioramento della qualità dell'immagine. Ma poiché la tecnologia è ancora relativamente nuova, ci sono molte domande e malintesi su ciò che è necessario per eseguire un monitor 4K. In modo da... www.pugetsystems.com Ultima modifica: 31 gennaio 2021
Reazioni:Tagbert L

lemano

14 ottobre 2008
  • 1 febbraio 2021
majormike ha detto: Ciao,

Quanta RAM richiede l'M1 dal pool di memoria per eseguire la GPU?

Voglio ottenerlo per la produzione musicale e sarei felice con 16 concerti, ma non sono sicuro di quanta memoria utilizza la GPU, specialmente con un display esterno?

Non mi preoccuperei di questo. Tutti i sistemi riservano un po' di memoria per gestire le funzioni di base, M1 non è troppo diverso dalle macchine Intel in questo senso. La GPU non cannibalizzerà la tua RAM. Per non parlare del fatto che il tuo software di produzione musicale probabilmente utilizza la GPU per eseguire l'elaborazione. m

Modernape

21 giugno 2010
  • 1 febbraio 2021
La GPU M1 non ha RAM allocata come le macchine Intel, dove la GPU avrebbe forse 1,5 GB da parte che la CPU non potrebbe quindi utilizzare. Se non stai usando la GPU così duramente, avrai la maggior parte della RAM disponibile per la CPU.
Reazioni:mds1256 e LeeW L

lemano

14 ottobre 2008
  • 1 febbraio 2021
Modernape ha dichiarato: La GPU M1 non ha RAM allocata come le macchine Intel, dove la GPU avrebbe forse 1,5 GB di spazio da parte che la CPU non potrebbe quindi utilizzare. Se non stai usando la GPU così duramente, avrai la maggior parte della RAM disponibile per la CPU.

Come fai a saperlo? m

Modernape

21 giugno 2010
  • 1 febbraio 2021
leman ha detto: Come fai a saperlo?
architettura di memoria unificata soc m1 - Ricerca Google
Reazioni:mds1256, chabig e consumeritis L

lemano

14 ottobre 2008
  • 1 febbraio 2021
Modernap ha detto: architettura di memoria unificata soc m1 - Ricerca Google

Come dovrebbe supportare l'affermazione che stai facendo? Quello che sto chiedendo è: hai prove concrete o un riferimento a una fonte che presenta prove così concrete che l'allocazione della memoria della GPU funziona in modo diverso su GPU Intel e Apple? Entrambi utilizzano un'architettura di memoria unificata con cache di ultimo livello condivisa tra CPU e GPU. M1 riserva sicuramente un po' di memoria per l'uso della GPU, anche se non sono sicuro di quanta. m

Modernape

21 giugno 2010
  • 1 febbraio 2021
leman ha detto: Come dovrebbe supportare l'affermazione che stai facendo? Quello che sto chiedendo è: hai prove concrete o un riferimento a una fonte che presenta prove così concrete che l'allocazione della memoria della GPU funziona in modo diverso su GPU Intel e Apple? Entrambi utilizzano un'architettura di memoria unificata con cache di ultimo livello condivisa tra CPU e GPU. M1 riserva sicuramente un po' di memoria per l'uso della GPU, anche se non sono sicuro di quanta.
Wow, devi aver letto velocemente quegli articoli. Oh, aspetta. Non li hai letti vero?
Reazioni:mds1256, jerryk e chabig L

lemano

14 ottobre 2008
  • 1 febbraio 2021
Modernape ha detto: Wow, devi aver letto velocemente quegli articoli. Oh, aspetta. Non li hai letti vero?

Sono abbastanza sicuro di aver letto la maggior parte di loro. Ho anche svolto analisi tecniche e benchmark di basso livello della GPU M1 da quando ho ricevuto la mia unità a dicembre. Questo è anche il motivo per cui chiedo, forse ci sono nuove informazioni tecniche là fuori di cui non sono ancora a conoscenza. C

chabig

6 set 2002
  • 1 febbraio 2021
Alla tua domanda è impossibile rispondere. È come chiedere quanta memoria utilizza TextEdit. Tutto dipende da cosa stai facendo. La CPU e la GPU condividono la RAM in base alle loro esigenze, che cambiano di momento in momento.

Ecco un riferimento Apple:

Esplora la nuova architettura di sistema dei Mac in silicio Apple - WWDC20 - Video - Apple Developer

Scopri come i Mac con Apple silicio offriranno vantaggi moderni utilizzando l'architettura System-on-Chip (SoC) di Apple. Sfruttando un unificato... sviluppatore.apple.com
Citazione,
Costruire tutto in un chip fornisce al sistema un'architettura di memoria unificata.

Ciò significa che la GPU e la CPU stanno lavorando sulla stessa memoria. Le risorse grafiche, come trame, immagini e dati geometrici, possono essere condivise in modo efficiente tra CPU e GPU, senza sovraccarico, poiché non è necessario copiare i dati su un bus PCIe.

Krevnik

8 settembre 2003
  • 1 febbraio 2021
leman ha detto: sono abbastanza sicuro di aver letto la maggior parte di loro. Ho anche svolto analisi tecniche e benchmark di basso livello della GPU M1 da quando ho ricevuto la mia unità a dicembre. Questo è anche il motivo per cui chiedo, forse ci sono nuove informazioni tecniche là fuori di cui non sono ancora a conoscenza.

I chip Intel per desktop e laptop non usano UMA, usano la memoria condivisa. Su Intel, alla GPU deve essere assegnato un pezzo di RAM partizionato da utilizzare. La CPU non può accedere alla partizione assegnata alla GPU e viceversa. Quindi è ancora necessario copiare i dati tra le partizioni.

L'intera differenza tra la memoria unificata e la memoria condivisa è la mancanza di partizionamento. La GPU e la CPU possono accedere allo stesso blocco di memoria. Rispetto a Intel offre due vantaggi specifici:

1. Senza dover preallocare la RAM da utilizzare come memoria video, non devi affrontare limiti specifici per la memoria video (l'1,5 GB menzionato in precedenza) e puoi bilanciare più facilmente la richiesta di CPU e GPU.
2. Non aver bisogno di copiare i buffer significa un risparmio di RAM misurabile, meno pressione sulla larghezza di banda della memoria e un po' di aumento della latenza.

Questi vantaggi sono un motivo per cui le console di gioco utilizzano UMA. I risparmi di memoria e latenza aiutano a contenere i costi del GDDR di cui hanno bisogno.
Reazioni:blindato e jdb8167 L

lemano

14 ottobre 2008
  • 1 febbraio 2021
Krevnik ha detto: i chip Intel per desktop e laptop non usano UMA, usano la memoria condivisa. Su Intel, alla GPU deve essere assegnato un pezzo di RAM partizionato da utilizzare. La CPU non può accedere alla partizione assegnata alla GPU e viceversa. Quindi è ancora necessario copiare i dati tra le partizioni.

La documentazione Intel non è d'accordo con te.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Per quanto mi riguarda, Intel ha utilizzato la memoria unificata almeno da Sandy Bridge, forse prima. Potrebbero esserci alcune restrizioni, non sicure al 100%. Ultima modifica: 1 febbraio 2021
Reazioni:AAPLGeek T

il bagaglio

29 luglio 2011
  • 1 febbraio 2021
majormike ha detto: Voglio ottenerlo per la produzione musicale e sarei felice con 16 concerti, ma non sono sicuro di quanta memoria utilizza la GPU, specialmente con un display esterno?
A meno che qualcuno non riporti le letture della pressione della memoria da una macchina M1 da 16 GB che esegue qualcosa di simile al carico di lavoro previsto, nessuno può indovinare. La 'produzione musicale' è un pezzo di corda con cui iniziare (l'utilizzo della RAM dipende interamente dal tipo di strumenti virtuali e plug-in che stai utilizzando). Alcune app musicali hanno interfacce utente piuttosto elaborate e l'esecuzione di un paio di display ad alta risoluzione richiederà più RAM allocata al video, soprattutto se si utilizzano modalità ridimensionate in cui tutto viene sottoposto a rendering in un buffer interno e quindi sottoposto a downsampling.

Le probabilità sono che un M1 non solo farà il tuo lavoro, ma lo farà più velocemente perché è tutto sommato più efficiente e ciò che perdi nelle rotatorie, lo guadagni sulle altalene - e ci sono state molte demo di Youtube che lo mostrano mentre esegue un shedload di tracce e strumenti di Logic Pro.

Tuttavia, il presupposto sicuro è che se il tuo flusso di lavoro ha effettivamente bisogno di più di 16 GB su Intel, almeno lo farà beneficio da più di 16 GB su Apple Silicon e sarebbe meglio aspettare che escano i sistemi Apple Silicon di fascia alta. Anche se una M1 può attualmente superare un iMac Intel di fascia alta o un MBP da 16 pollici, tra sei mesi verrà preso a calci in faccia - questa strana pausa in cui i Mac entry-level apparentemente superano quelli più costosi non durerà per lungo - Apple non può permettersi che continui o colpirà le vendite di Mac di fascia alta.

Detto questo, devi essere sicuro che tu fallo veramente hai bisogno di tutta la ram sul tuo Mac Intel in primo luogo (guarda Memory Pressure).

Per quanto riguarda la RAM video, l'M1 è quasi sicuramente migliore di un MacBook o Mini con grafica integrata Intel. contro un iMac che soltanto ha una GPU discreta con 8GB+ di VRAM, è più difficile da dire.

(Inoltre, è necessario verificare attentamente se tutti i plug-in, i driver ecc. necessari sono compatibili con Big Sur, per non parlare dell'M1...)

Modernape ha detto: Wow, devi aver letto velocemente quegli articoli. Oh, aspetta. Non li hai letti vero?

Dire a qualcuno di 'passare a Google' in modo efficace non è particolarmente utile quando Internet è pieno di informazioni fasulle e speculazioni infondate. Tutto quello che ho visto di Apple è stato estremamente vago, più marketing che informazioni tecniche, e si riduce a 'La memoria unificata è più veloce perché i dati non devono essere copiati tra i dispositivi', il che non dice nulla su come viene allocata la RAM. Tutto ciò che ottieni con una ricerca su Google sono molti siti tecnologici che speculano sugli stessi dati Apple limitati. La possibilità che la VRAM equivalente venga allocata 'on demand' è una speculazione molto plausibile, ma a meno che qualcuno non possa indicare il documento Apple che dettagli che, è è speculazione.

La realtà sembra essere quella Memoria Unificata è più efficiente - ma come più efficiente è difficile da testare e difficile da isolare dagli altri miglioramenti delle prestazioni dell'M1 (... che potrebbe sembrare molto meno impressionante quando appaiono i Mac Apple Silicon di fascia alta).

Molte delle cose di YouTube sembrano provenire da persone che non capiscono la differenza tra 'Memoria utilizzata' e 'Pressione della memoria' o 'Scambia utilizzata' e scambia Vota - o stai cercando un'accelerazione relativa alla RAM sui flussi di lavoro che non sovraccaricano la RAM su un sistema Intel...
Reazioni:blindato e mszilard

mi7chy

24 ottobre 2014
  • 1 febbraio 2021
Krevnik ha detto: L'intera differenza tra la memoria unificata e la memoria condivisa è la mancanza di partizionamento. La GPU e la CPU possono accedere allo stesso blocco di memoria. Rispetto a Intel offre due vantaggi specifici:

1. Senza dover preallocare la RAM da utilizzare come memoria video, non devi affrontare limiti specifici per la memoria video (l'1,5 GB menzionato in precedenza) e puoi bilanciare più facilmente la richiesta di CPU e GPU.
2. Non aver bisogno di copiare i buffer significa un risparmio di RAM misurabile, meno pressione sulla larghezza di banda della memoria e un po' di aumento della latenza.

Intel dice il contrario con l'allocazione dinamica e il buffer di copia zero. La mia lista da ignorare BS sta diventando più grande.

https://www.intel.com/content/www/us/en/support/articles/000020962/graphics.html

https://software.intel.com/content/...uffer-copies-on-intel-processor-graphics.html Ultima modifica: 1 febbraio 2021
Reazioni:AlumaMac, leman e AAPLGeek

thedocbwarren

10 novembre 2017
San Francisco, CA
  • 1 febbraio 2021
Pensa che questo potrebbe aiutare: https://developer.apple.com/videos/play/wwdc2020/10632/

Questo spiega il metodo di rendering comune con dispositivi mobili, console e GPU a basso consumo. Questo è il motivo per cui hai bisogno di meno memoria rispetto alle dGPU. Il rendering dei riquadri è stato un modo per gestire il 3D in riquadri più piccoli e scansionare le modifiche, ecc. È stato fatto per anni su console e sui tablet più recenti (iPad).

Dato che, non è tagliato e asciutto quanta memoria usi per le trame e l'arrossamento. È diverso da come funzionano le dGPU con i framebuffer.

theluggage ha detto: A meno che qualcuno non riporti le letture della pressione della memoria da una macchina M1 da 16 GB che esegue qualcosa di simile al carico di lavoro previsto, nessuno può indovinare. La 'produzione musicale' è un pezzo di corda con cui iniziare (l'utilizzo della RAM dipende interamente dal tipo di strumenti virtuali e plug-in che stai utilizzando). Alcune app musicali hanno interfacce utente piuttosto elaborate e l'esecuzione di un paio di display ad alta risoluzione richiederà più RAM allocata al video, soprattutto se si utilizzano modalità ridimensionate in cui tutto viene sottoposto a rendering in un buffer interno e quindi sottoposto a downsampling.

Le probabilità sono che un M1 non solo farà il tuo lavoro, ma lo farà più velocemente perché è tutto sommato più efficiente e ciò che perdi nelle rotatorie, lo guadagni sulle altalene - e ci sono state molte demo di Youtube che lo mostrano mentre esegue un shedload di tracce e strumenti di Logic Pro.

Tuttavia, il presupposto sicuro è che se il tuo flusso di lavoro ha effettivamente bisogno di più di 16 GB su Intel, almeno lo farà beneficio da più di 16 GB su Apple Silicon e sarebbe meglio aspettare che escano i sistemi Apple Silicon di fascia alta. Anche se una M1 può attualmente superare un iMac Intel di fascia alta o un MBP da 16 pollici, tra sei mesi verrà preso a calci in faccia - questa strana pausa in cui i Mac entry-level apparentemente superano quelli più costosi non durerà per lungo - Apple non può permettersi che continui o colpirà le vendite di Mac di fascia alta.

Detto questo, devi essere sicuro che tu fallo veramente hai bisogno di tutta la ram sul tuo Mac Intel in primo luogo (guarda Memory Pressure).

Per quanto riguarda la RAM video, l'M1 è quasi sicuramente migliore di un MacBook o Mini con grafica integrata Intel. contro un iMac che soltanto ha una GPU discreta con 8GB+ di VRAM, è più difficile da dire.

(Inoltre, è necessario verificare attentamente se tutti i plug-in, i driver ecc. necessari sono compatibili con Big Sur, per non parlare dell'M1...)



Dire a qualcuno di 'passare a Google' in modo efficace non è particolarmente utile quando Internet è pieno di informazioni fasulle e speculazioni infondate. Tutto quello che ho visto di Apple è stato estremamente vago, più marketing che informazioni tecniche, e si riduce a 'La memoria unificata è più veloce perché i dati non devono essere copiati tra i dispositivi', il che non dice nulla su come viene allocata la RAM. Tutto ciò che ottieni con una ricerca su Google sono molti siti tecnologici che speculano sugli stessi dati Apple limitati. La possibilità che la VRAM equivalente venga allocata 'on demand' è una speculazione molto plausibile, ma a meno che qualcuno non possa indicare il documento Apple che dettagli che, è è speculazione.

La realtà sembra essere quella Memoria Unificata è più efficiente - ma come più efficiente è difficile da testare e difficile da isolare dagli altri miglioramenti delle prestazioni dell'M1 (... che potrebbe sembrare molto meno impressionante quando appaiono i Mac Apple Silicon di fascia alta).

Molte delle cose di YouTube sembrano provenire da persone che non capiscono la differenza tra 'Memoria utilizzata' e 'Pressione della memoria' o 'Scambia utilizzata' e scambia Vota - o stai cercando un'accelerazione relativa alla RAM sui flussi di lavoro che non sovraccaricano la RAM su un sistema Intel...

dmccloud

7 set 2009
Anchorage, AK
  • 1 febbraio 2021
leman ha detto: Come dovrebbe supportare l'affermazione che stai facendo? Quello che sto chiedendo è: hai prove concrete o un riferimento a una fonte che presenta prove così concrete che l'allocazione della memoria della GPU funziona in modo diverso su GPU Intel e Apple? Entrambi utilizzano un'architettura di memoria unificata con cache di ultimo livello condivisa tra CPU e GPU. M1 riserva sicuramente un po' di memoria per l'uso della GPU, anche se non sono sicuro di quanta.

x86 NON utilizza la memoria unificata per la RAM di sistema. UMA si riferisce alla configurazione della RAM nel sistema, non alla cache della CPU. Con la piattaforma x86, il sistema partiziona la RAM in una sezione CPU e iGPU. Per l'iGPU, il sistema di solito alloca circa 2 GB per le operazioni della GPU, il che significa che sono disponibili solo 6 GB per la CPU. Per le operazioni in cui i dati devono essere manipolati sia dalla CPU che dall'iGPU, vengono copiati due volte attraverso il bus di sistema nella RAM (una volta per partizione), quindi il sistema deve riconciliare i due set di dati una volta restituiti dalla RAM, che aggiunge ulteriore tempo di elaborazione. Con la configurazione UMA utilizzata dall'M1, sia la CPU che l'iGPU possono accedere contemporaneamente all'intera RAM di sistema (cioè, non c'è partizionamento della RAM tra CPU e GPU). Ciò significa che i dati vengono copiati nella RAM solo una volta e poiché tutti le operazioni possono avvenire contemporaneamente, non vi è alcun sovraccarico associato alla riconciliazione di due versioni degli stessi dati una volta restituite alla CPU dalla RAM.
Reazioni:blindato e chabig

dmccloud

7 set 2009
Anchorage, AK
  • 1 febbraio 2021
leman ha detto: La documentazione Intel non è d'accordo con te.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Per quanto mi riguarda, Intel ha utilizzato la memoria unificata almeno da Sandy Bridge, forse prima. Potrebbero esserci alcune restrizioni, non sicure al 100%.

Una cosa che devi capire è che l'uso da parte di Intel del termine 'UMA' è fuorviante. Per gli scopi di Intel, hanno appena rinominato Intel HD in UMA, ma non hanno apportato modifiche all'architettura sottostante. D'altra parte, l'approccio di Apple è essenzialmente quello che AMD ha cercato di fare per anni con lo sviluppo della sua tecnologia Infinity Fabric per le CPU della serie Ryzen. Ecco una spiegazione relativamente semplificata del perché l'approccio di Apple non è lo stesso di quello di Intel:

La memoria del processore M1 è un singolo pool accessibile da qualsiasi parte del processore. Se il sistema necessita di più memoria per la grafica, può assegnarla. Se ha bisogno di più memoria per il Neural Engine, allo stesso modo. Ancora meglio, poiché tutti gli aspetti del processore possono accedere a tutta la memoria di sistema, non c'è alcun calo di prestazioni quando i core grafici devono accedere a qualcosa a cui in precedenza accedeva un core del processore. Su altri sistemi, i dati devono essere copiati da una porzione di memoria a un'altra, ma sull'M1 sono immediatamente accessibili.

Anche la menzione di 'allocazione' di cui sopra è fuorviante e un artefatto della piattaforma x86. Poiché l'UMA di Apple non suddivide la RAM tra GPU e CPU, non esiste un'allocazione effettiva di RAM tra CPU e GPU.

Con i Mac M1, la memoria non è più quella di una volta

Apple ha cambiato il modo in cui la RAM viene utilizzata in un computer. Ed è ora di cambiare il nostro modo di pensare.
Reazioni:blindato, chabig e mds1256

Krevnik

8 settembre 2003
  • 1 febbraio 2021
dmccloud ha detto: Una cosa che devi capire è che l'uso da parte di Intel del termine 'UMA' è fuorviante. Per gli scopi di Intel, hanno appena rinominato Intel HD in UMA, ma non hanno apportato modifiche all'architettura sottostante.

Sarò onesto, leman e mi7chy (nonostante l'atteggiamento sfacciato) indicano buone fonti che Intel supporta almeno la copia zero e il dimensionamento dinamico delle partizioni.

Anche se non è vero UMA come dici tu, sembra che dai documenti che ho letto finora, sia almeno in grado di dedicare pagine di memoria da utilizzare per la copia zero, che presumo faccia alcuni trucchi interessanti per rendere il stessa pagina RAM disponibile per entrambi i lati.

La domanda a cui spero che i documenti rispondano una volta che avrò più tempo è come queste pagine vengono gestite in modo più dettagliato e che tipo di integrazione deve fare il sistema operativo per trarne il massimo vantaggio. Ma anche con quella risposta, se le API del sistema operativo devono segnalare alla GPU come gestire le pagine, quanta ottimizzazione ha fatto Apple lì?

leman ha detto: La documentazione Intel non è d'accordo con te.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Per quanto mi riguarda, Intel ha utilizzato la memoria unificata almeno da Sandy Bridge, forse prima. Potrebbero esserci alcune restrizioni, non sicure al 100%.

Bene, la mia comprensione dell'architettura GPU di Intel si è rivelata obsoleta. In effetti, non dovrebbero esserci enormi differenze in quel caso.

La mia comprensione era che c'era ancora un partizionamento fisso in corso, ma sembra che Google stia recuperando vecchi articoli su questo, il che mi ha portato sulla strada sbagliata.

thedocbwarren ha detto: Penso che questo potrebbe aiutare: https://developer.apple.com/videos/play/wwdc2020/10632/

Questo spiega il metodo di rendering comune con dispositivi mobili, console e GPU a basso consumo. Questo è il motivo per cui hai bisogno di meno memoria rispetto alle dGPU. Il rendering dei riquadri è stato un modo per gestire il 3D in riquadri più piccoli e scansionare le modifiche, ecc. È stato fatto per anni su console e sui tablet più recenti (iPad).

Dato che, non è tagliato e asciutto quanta memoria usi per le trame e l'arrossamento. È diverso da come funzionano le dGPU con i framebuffer.

La mia comprensione dopo aver ripassato il video (sono passati alcuni mesi dall'ultima volta che l'ho visto) è che questo non ha necessariamente un impatto sulla quantità di memoria video di cui ha bisogno così tanto, ma piuttosto sulla pressione esercitata sulla larghezza di banda della memoria.

Ho ancora bisogno di X MB per una trama di una determinata dimensione e di X MB per il frame buffer in entrambi i progetti. Tuttavia, TBDR riduce la frequenza con cui è necessario raggiungere la (V)RAM, soprattutto in situazioni in cui è necessario eseguire più passaggi. *potrebbe* ridurre leggermente i buffer intermedi, ma ciò presuppone che i buffer intermedi siano un contributo notevole rispetto agli altri buffer in uso. La mia comprensione era che il buffer posteriore stesso fosse usato come buffer intermedio, quindi sono un po' scettico sul fatto che ci siano grandi guadagni da ottenere lì. Disegnare sulla trama sembra essere comune in questi giorni, quindi potrebbe esserci più di quanto mi aspetto, supponendo che questi scenari possano essere eseguiti tutti a livello di riquadro, piuttosto che una trama. Ultima modifica: 1 febbraio 2021

dmccloud

7 set 2009
Anchorage, AK
  • 1 febbraio 2021
Intel partiziona ancora la CPU e la RAM della GPU, quindi devi copiare i dati dal lato CPU al lato GPU e viceversa (la sezione in grassetto è l'approccio di Apple, la sezione in corsivo è quella di Intel):

Scaviamo nell'ultimo punto, la memoria su chip. Con l'M1, anche questo fa parte del SoC. La memoria nell'M1 è quella che viene descritta come una 'architettura di memoria unificata' (UMA) che consente a CPU, GPU e altri core di scambiare informazioni tra loro e con la memoria unificata, la CPU e la GPU possono accedere alla memoria contemporaneamente invece di copiare i dati tra un'area e l'altra . Erik continua...

Per molto tempo, i computer economici hanno avuto la CPU e la GPU integrate nello stesso chip (stesso die di silicio). In passato dire 'grafica integrata' era essenzialmente lo stesso di dire 'grafica lenta'. Questi erano lenti per diversi motivi:
Aree separate di questa memoria sono state riservate alla CPU e alla GPU. Se la CPU avesse una parte dei dati che voleva che la GPU utilizzasse, non potrebbe dire che qui c'è parte della mia memoria. No, la CPU doveva copiare esplicitamente l'intero blocco di dati sull'area di memoria controllata dalla GPU.


La parte relativa ai 'sistemi di computer economici' è ciò che Intel utilizza fino ad oggi per la grafica integrata. Ciò non è cambiato indipendentemente da ciò che Intel chiama la loro architettura.


Perché il chip Apple M1 è così veloce - spiega uno sviluppatore | Esperto di produzione

Potresti esserti chiesto perché il chip Apple M1 è così veloce? In questo articolo impariamo da uno sviluppatore cosa rende così veloci anche questi Mac entry-level. www.pro-tools-expert.com
Johnny Srouji lo ha affrontato direttamente durante il WWDC:

'accedi agli stessi dati senza copiarli tra più pool di memoria'

M1 di Apple: uno sguardo più da vicino al chip all'interno degli ultimi Mac

All'evento di Apple chiamato 'One More Thing', l'azienda ha offerto agli spettatori un tour virtuale del chip M1 e dei suoi 16 miliardi di transistor. www.techrepublic.com
Reazioni:chabig e thedocbwarren

thedocbwarren

10 novembre 2017
San Francisco, CA
  • 1 febbraio 2021
Di sicuro antiquato. Sono ancora più inorridito dal fatto che ora venderanno (agli OEM) versioni discrete dell'Iris Xe. Sempre più diffondendosi dall'architettura. Che casino.
Krevnik ha detto: Sarò onesto, leman e mi7chy (nonostante l'atteggiamento sfacciato) indicano buone fonti che Intel supporta almeno la copia zero e il dimensionamento dinamico delle partizioni.

Anche se non è vero UMA come dici tu, sembra che dai documenti che ho letto finora, sia almeno in grado di dedicare pagine di memoria da utilizzare per la copia zero, che presumo faccia alcuni trucchi interessanti per rendere il stessa pagina RAM disponibile per entrambi i lati.

La domanda a cui spero che i documenti rispondano una volta che avrò più tempo è come queste pagine vengono gestite in modo più dettagliato e che tipo di integrazione deve fare il sistema operativo per trarne il massimo vantaggio. Ma anche con quella risposta, se le API del sistema operativo devono segnalare alla GPU come gestire le pagine, quanta ottimizzazione ha fatto Apple lì?



Bene, la mia comprensione dell'architettura GPU di Intel si è rivelata obsoleta. In effetti, non dovrebbero esserci enormi differenze in quel caso.

La mia comprensione era che c'era ancora un partizionamento fisso in corso, ma sembra che Google stia recuperando vecchi articoli su questo, il che mi ha portato sulla strada sbagliata.



La mia comprensione dopo aver ripassato il video (sono passati alcuni mesi dall'ultima volta che l'ho visto) è che questo non ha necessariamente un impatto sulla quantità di memoria video di cui ha bisogno così tanto, ma piuttosto sulla pressione esercitata sulla larghezza di banda della memoria.

Ho ancora bisogno di X MB per una trama di una determinata dimensione e di X MB per il frame buffer in entrambi i progetti. Tuttavia, TBDR riduce la frequenza con cui è necessario raggiungere la (V)RAM, soprattutto in situazioni in cui è necessario eseguire più passaggi. *potrebbe* ridurre leggermente i buffer intermedi, ma ciò presuppone che i buffer intermedi siano un contributo notevole rispetto agli altri buffer in uso. La mia comprensione era che il buffer posteriore stesso fosse usato come buffer intermedio, quindi sono un po' scettico sul fatto che ci siano grandi guadagni da ottenere lì. Disegnare sulla trama sembra essere comune in questi giorni, quindi potrebbe esserci più di quanto mi aspetto, supponendo che questi scenari possano essere eseguiti tutti a livello di riquadro, piuttosto che una trama.

dmccloud

7 set 2009
Anchorage, AK
  • 1 febbraio 2021
thedocbwarren ha detto: Sicuramente obsoleto. Sono ancora più inorridito dal fatto che ora venderanno (agli OEM) versioni discrete dell'Iris Xe. Sempre più diffondendosi dall'architettura. Che casino.


L'Iris Xe non è altro che una iGPU Intel UHD rinominata (che a sua volta è stata rinominata da Intel HD). È come se stessero cercando di presentare una Chevelle come un'auto nuova di zecca semplicemente ridipingendo l'esterno...

thedocbwarren

10 novembre 2017
San Francisco, CA
  • 1 febbraio 2021
dmccloud ha dichiarato: L'Iris Xe non è altro che una iGPU Intel UHD rinominata (che a sua volta è stata rinominata da Intel HD). È come se stessero cercando di presentare una Chevelle come un'auto nuova di zecca semplicemente ridipingendo l'esterno...
Così vero, non posso credere che stiano facendo anche schede discrete di questi per 11th Gen.

robco74

22 novembre 2020
  • 1 febbraio 2021
Se fai qualsiasi tipo di creazione musicale, la RAM dovrebbe essere più bassa nell'elenco delle preoccupazioni quando si considerano i nuovi Mac M1. Big Sur ha apportato grandi cambiamenti al pilota. Verificare prima con tutti i produttori di apparecchiature per assicurarsi che supportino Big Sur e Apple Silicon. Non tutti lo fanno ancora.
Reazioni:duervo Q

quarkysg

12 ottobre 2019
  • 1 febbraio 2021
leman ha detto: La documentazione Intel non è d'accordo con te.

https://software.intel.com/sites/de...tel-Processor-Graphics-Gen11_R1new.pdf#page19
Sembra descrivere solo iGPU Gen 11? Si applica anche alle iGPU delle generazioni precedenti?