Forum

Prestazioni combinate R9 280X+ RX580

antipasto

Manifesto originale
20 settembre 2018
  • 3 febbraio 2019
Ho R9 280X collegato tramite DVI nello slot 1 e RX 580 collegato tramite adattatore DP a DVI nello slot 2.
Riesco a vedere la schermata di avvio attraverso il mio R9 280X, ma interrompe a circa il 75% di avanzamento del logo di avvio di Apple.
Quando HS è caricato, solo l'RX 580 emette su uno schermo.
In Windows 10, la stessa configurazione funziona bene con entrambe le schede in uscita sui loro schermi. Riesco anche a vedere il fuoco incrociato abilitato nello stress test di Furmark.
Mi sto perdendo qualcosa qui? Perché l'R9 280X smette di emettere in HS insieme all'RX 580?

h9826790

3 aprile 2014


Hong Kong
  • 3 febbraio 2019
startergo ha detto: ho R9 280X collegato tramite DVI nello slot 1 e RX 580 collegato tramite adattatore DP a DVI nello slot 2.
Riesco a vedere la schermata di avvio attraverso il mio R9 280X, ma interrompe a circa il 75% di avanzamento del logo di avvio di Apple.
Quando HS è caricato, solo l'RX 580 emette su uno schermo.
In Windows 10, la stessa configurazione funziona bene con entrambe le schede in uscita sui loro schermi. Riesco anche a vedere il fuoco incrociato abilitato nello stress test di Furmark.
Mi sto perdendo qualcosa qui? Perché l'R9 280X smette di emettere in HS insieme all'RX 580?

Crossfire 280X con RX580? AFAIK, le dosi Crossfire non richiedono GPU 'matched pair', ma entrambe le GPU DEVONO appartenere alla stessa famiglia.

antipasto

Manifesto originale
20 settembre 2018
  • 3 febbraio 2019
h9826790 ha detto: Crossfire 280X con RX580? AFAIK, le dosi Crossfire non richiedono GPU 'matched pair', ma entrambe le GPU DEVONO appartenere alla stessa famiglia.
Anch'io sono rimasto sorpreso, ma è quello che ha detto Furmark: Crossfire abilitato

antipasto

Manifesto originale
20 settembre 2018
  • 3 febbraio 2019
Visualizza elemento multimediale ' data-single-image='1'>
Reazioni:h9826790

h9826790

3 aprile 2014
Hong Kong
  • 3 febbraio 2019
startergo ha detto: Visualizza allegato 819716

Grazie per la condivisione. Informazioni interessanti.

Fuoco incrociato abilitato.

Entrambe le GPU funzionano a ~100%. (Questo è normale per Furmark)

Ma 280X si riscalda solo da 61°C a 64°C. (Questa parte è normale supponendo che il 280X abbia un buon dispositivo di raffreddamento)

La velocità di clock dell'RX580 mostra 639,8 MHz, VDDC 0V, prestazioni peggiori del 280X (decisamente molto sbagliato).

Hai provato a rimuovere il 280X ed eseguire lo stesso test solo con l'RX580?

antipasto

Manifesto originale
20 settembre 2018
  • 4 febbraio 2019
h9826790 ha detto: Grazie per la condivisione. Informazioni interessanti.

Fuoco incrociato abilitato.

Entrambe le GPU funzionano a ~100%. (Questo è normale per Furmark)

Ma 280X si riscalda solo da 61°C a 64°C. (Questa parte è normale supponendo che il 280X abbia un buon dispositivo di raffreddamento)

La velocità di clock dell'RX580 mostra 639,8 MHz, VDDC 0V, prestazioni peggiori del 280X (decisamente molto sbagliato).

Hai provato a rimuovere il 280X ed eseguire lo stesso test solo con l'RX580?
La tensione è 0VDC forse perché la sto alimentando dalla potenza SATA e non la misura con precisione:

Visualizza elemento multimediale ' data-single-image='1'>

h9826790

3 aprile 2014
Hong Kong
  • 4 febbraio 2019
startergo ha detto: la tensione è 0VDC forse perché lo sto alimentando dalla potenza SATA e non lo misura accuratamente:

Visualizza allegato 819791

Quel VDDC dovrebbe essere letto dalla scheda grafica, non dalla fonte di alimentazione. Quindi, c'è qualcosa che non va (lettura decisamente errata, potrebbe essere un problema software, non necessario all'hardware).

Sembra che la tua scheda fosse in throttling termico/di potenza. Sospetto che ciò sia dovuto al fatto che la scheda OEM ha un limite TDP inferiore al normale, il che fa sì che la scheda raggiunga il punto di limitazione della potenza prima del normale RX580.

Ad ogni modo, FPS medio 87 vs 54, il fuoco incrociato sembra davvero performante come previsto.

Potrebbe essere che tutte le GPU GCN ora possono essere incrociate. Non lo uso da alcuni anni ormai. Non sono sicuro che sia il requisito più aggiornato.

antipasto

Manifesto originale
20 settembre 2018
  • 4 febbraio 2019
h9826790 ha detto: Quel VDDC dovrebbe essere letto dalla scheda grafica, non dalla fonte di alimentazione. Quindi, c'è qualcosa che non va (lettura decisamente errata, potrebbe essere un problema software, non necessario all'hardware).

Sembra che la tua scheda fosse in throttling termico/di potenza. Sospetto che ciò sia dovuto al fatto che la scheda OEM ha un limite TDP inferiore al normale, il che fa sì che la scheda raggiunga il punto di limitazione della potenza prima del normale RX580.

Ad ogni modo, FPS medio 87 vs 54, il fuoco incrociato sembra davvero performante come previsto.

Potrebbe essere che tutte le GPU GCN ora possono essere incrociate. Non lo uso da alcuni anni ormai. Non sono sicuro che sia il requisito più aggiornato.
Il TDP della scheda è di 130W. Forse perché usano lo stesso driver il fuoco incrociato è abilitato? So che se seleziono il driver video di base su uno di essi non funzioneranno allo stesso modo. Quello che mi dà fastidio è che in HS il 280 disattiva l'uscita. Qualche idea sul perché?

h9826790

3 aprile 2014
Hong Kong
  • 4 febbraio 2019
startergo ha detto: Il TDP della scheda è di 130W. Forse perché usano lo stesso driver il fuoco incrociato è abilitato? So che se seleziono il driver video di base su uno di essi non funzioneranno allo stesso modo. Quello che mi dà fastidio è che in HS il 280 disattiva l'uscita. Qualche idea sul perché?

Ma la tua acquisizione dello schermo mostra che il TDP dell'RX580 è di 185 W. Stai attento. Il TDP della scheda è di 130 W, ma molto probabilmente significa che la soluzione di raffreddamento è valida fino a 130 W. E la tua carta può assorbire fino a 185 W dalla lettura del software. E questo non è sicuramente un buon segno per una singola scheda a 6 pin.

Comunque, ho già venduto tutte le mie HD7950, R9 280, R9 380, non posso testarle con l'RX580. Ma se il tuo 280X può funzionare perfettamente all'avvio dalla ROM originale, a quanto pare il Mac EFI sta causando alcuni problemi di compatibilità.

antipasto

Manifesto originale
20 settembre 2018
  • 4 febbraio 2019
h9826790 ha detto: Ma la tua acquisizione dello schermo mostra che il TDP dell'RX580 è di 185 W. Stai attento. Il TDP della scheda è di 130 W, ma molto probabilmente significa che la soluzione di raffreddamento è valida fino a 130 W. E la tua carta può assorbire fino a 185 W dalla lettura del software. E questo non è sicuramente un buon segno per una singola scheda a 6 pin.

Comunque, ho già venduto tutte le mie HD7950, R9 280, R9 380, non posso testarle con l'RX580. Ma se il tuo 280X può funzionare perfettamente all'avvio dalla ROM originale, a quanto pare il Mac EFI sta causando alcuni problemi di compatibilità.
Non importa quale ROM utilizzo. Non ho problemi con l'utilizzo di una singola scheda solo quando sono installate entrambe. Per quanto riguarda la potenza, i 2 SATA forniscono una potenza di 108 W, quindi c'è molta potenza sul pin 6. Non so come può assorbire 185 W se è limitato nella ROM?

h9826790

3 aprile 2014
Hong Kong
  • 4 febbraio 2019
startergo ha detto: Non importa quale ROM uso. Non ho problemi con l'utilizzo di una singola scheda solo quando sono installate entrambe. Per quanto riguarda la potenza, i 2 SATA forniscono una potenza di 108 W, quindi c'è molta potenza sul pin 6. Non so come può assorbire 185 W se è limitato nella ROM?

L'impostazione predefinita della ROM NON è limitata a 130 W per la tua scheda. È un numero predefinito con 50% PowerTune, il che significa che, se 130W con 150% max, sarà in grado di assorbire 195W.
Visualizza elemento multimediale ' data-single-image='1'>
Come puoi vedere dalla tua acquisizione dello schermo vinta, il 'Power max' è 150% (questo è il limite di PowerTune). E il TDP registrato è di 185 W in quel momento. Se assumiamo che 185W sia il +50% del TDP predefinito. Quindi dovrebbe essere ~123W. E finché PowerTune rimane al 150%, la tua scheda potrebbe essere in grado di assorbire fino a 185 W (se non il throttling termico, ecc.).

In Windows, il pannello di controllo del driver AMD ti consentirà di vedere e regolare il numero di PowerTune. Ma in macOS, otterrà quel numero solo dalla ROM. Nel tuo caso, +50% max.

Inoltre, il problema della tua scheda NON è prelevare troppo dal pin 6, ma dallo slot.

Il cMP sembra abbastanza ben costruito. Quindi, assorbire più di 75 W da uno slot sembra non avere alcun effetto negativo (almeno vero per un breve periodo di tempo). Finora, non ho sentito un singolo caso che abbia bruciato la scheda logica a causa di ciò. Tuttavia, alcune schede madri per PC da gioco sono state danneggiate a causa di ciò.

La scheda non sa di poter prelevare quanto sui 6pin (es. fino a 108W), ma sa solo come prelevare la potenza richiesta secondo lo schema preprogrammato. Nel caso della tua carta. Sembra che la scheda praticamente divida la domanda per 2. Pertanto, se assorbe davvero 180 W, ciò potrebbe significare 90 W dal 6 pin e 90 W dallo slot.

Ad ogni modo, se EFI non fa alcuna differenza, ma multi GPU lo fa, allora sembra un conflitto di driver.

antipasto

Manifesto originale
20 settembre 2018
  • 10 febbraio 2019
h9826790 ha detto: L'impostazione predefinita della ROM NON è limitata a 130 W per la tua scheda. È un numero predefinito con 50% PowerTune, il che significa che, se 130W con 150% max, sarà in grado di assorbire 195W.
Visualizza allegato 819863
Come puoi vedere dalla tua acquisizione dello schermo vinta, il 'Power max' è 150% (questo è il limite di PowerTune). E il TDP registrato è di 185 W in quel momento. Se assumiamo che 185W sia il +50% del TDP predefinito. Quindi dovrebbe essere ~123W. E finché PowerTune rimane al 150%, la tua scheda potrebbe essere in grado di assorbire fino a 185 W (se non il throttling termico, ecc.).

In Windows, il pannello di controllo del driver AMD ti consentirà di vedere e regolare il numero di PowerTune. Ma in macOS, otterrà quel numero solo dalla ROM. Nel tuo caso, +50% max.

Inoltre, il problema della tua scheda NON è prelevare troppo dal pin 6, ma dallo slot.

Il cMP sembra abbastanza ben costruito. Quindi, assorbire più di 75 W da uno slot sembra non avere alcun effetto negativo (almeno vero per un breve periodo di tempo). Finora, non ho sentito un singolo caso che abbia bruciato la scheda logica a causa di ciò. Tuttavia, alcune schede madri per PC da gioco sono state danneggiate a causa di ciò.

La scheda non sa di poter prelevare quanto sui 6pin (es. fino a 108W), ma sa solo come prelevare la potenza richiesta secondo lo schema preprogrammato. Nel caso della tua carta. Sembra che la scheda praticamente divida la domanda per 2. Pertanto, se assorbe davvero 180 W, ciò potrebbe significare 90 W dal 6 pin e 90 W dallo slot.

Ad ogni modo, se EFI non fa alcuna differenza, ma multi GPU lo fa, allora sembra un conflitto di driver.

La GPU-Z ha misurato solo l'utilizzo massimo di 130-135 W sull'RX-580. Inoltre mostra correttamente la tensione 1.025VDC massimo. Ho provato un altro software di test e la frequenza è salita a 1300ish
Sono anche riuscito a inviare entrambe le schede ai display in HS utilizzando il convertitore da miniDP a VGA. Quindi entrambe le porte display funzionano correttamente, ma il DVI si disattiva nella configurazione a 2 schede.

h9826790

3 aprile 2014
Hong Kong
  • 12 febbraio 2019
startergo ha detto: La GPU-Z ha misurato solo 130-135 W di utilizzo massimo sull'RX-580. Inoltre mostra correttamente la tensione 1.025VDC massimo. Ho provato un altro software di test e la frequenza è salita a 1300ish
Sono anche riuscito a inviare entrambe le schede ai display in HS utilizzando il convertitore da miniDP a VGA. Quindi entrambe le porte display funzionano correttamente, ma il DVI si disattiva nella configurazione a 2 schede.

Consumo GPU 130-135W o consumo scheda grafica?

Hai controllato nel pannello dei driver AMD se il power tune è del 50%.

Comunque, sembra che 6xx MHz sia dovuto al power throttling. AMD ha rilasciato la correzione (che impedisce alla scheda di assorbire troppo dallo slot PCIe) tramite l'aggiornamento del driver, è possibile che l'assorbimento di potenza della scheda sia limitato dal driver a causa di ciò. Ma in macOS, il suo comportamento può essere diverso a causa dell'assenza di ulteriori limitazioni di assorbimento di potenza dal driver. Ad ogni modo, per quanto NG basso come il tuo flusso di lavoro quotidiano non stia eseguendo Furmark, non dovrebbe essere un problema.

antipasto

Manifesto originale
20 settembre 2018
  • 12 febbraio 2019
h9826790 ha detto: consumo della GPU 130-135W o consumo della scheda grafica?

Hai controllato nel pannello dei driver AMD se il power tune è del 50%.

Comunque, sembra che 6xx MHz sia dovuto al power throttling. AMD ha rilasciato la correzione (che impedisce alla scheda di assorbire troppo dallo slot PCIe) tramite l'aggiornamento del driver, è possibile che l'assorbimento di potenza della scheda sia limitato dal driver a causa di ciò. Ma in macOS, il suo comportamento può essere diverso a causa dell'assenza di ulteriori limitazioni di assorbimento di potenza dal driver. Ad ogni modo, per quanto NG basso come il tuo flusso di lavoro quotidiano non stia eseguendo Furmark, non dovrebbe essere un problema.
Penso che ci sia qualcosa di sbagliato nel Furmark poiché ho provato con un altro software (dimenticato quale) e la scheda ha funzionato a tutta velocità in uno stress test. Inoltre non vede correttamente l'assorbimento di tensione. Ma sì, la GPU-Z ha misurato un assorbimento di potenza di 135 W, che corrisponde al limite della ROM.

h9826790

3 aprile 2014
Hong Kong
  • 12 febbraio 2019
startergo ha detto: Penso che ci sia qualcosa di sbagliato nel Furmark poiché ho provato con un altro software (dimenticato quale) e la scheda ha funzionato a tutta velocità in uno stress test. Inoltre non vede correttamente l'assorbimento di tensione. Ma sì, la GPU-Z ha misurato un assorbimento di potenza di 135 W, che corrisponde al limite della ROM.

Oltre a Furmark, puoi provare OCCT.
Reazioni:antipasto

MIKX

16 dicembre 2004
Giappone
  • 25 giugno 2019
antipasto

Qual è la configurazione del cablaggio di alimentazione della GPU per entrambe le schede? Ultima modifica: 25 giugno 2019