Forum

Che senso ha: Asus ZenBook Pro UX501 costa $ 1000 in meno ma ha specifiche migliori di mbp2015

Precedente
  • 1
  • 2
  • 3
  • 4
Prossimo Primo Precedente

Vai alla pagina

andareProssimo Scorso

lowendlinux

24 settembre 2014
Germania
  • 29 giugno 2015
SHEEPOS ha detto: Perché ad Apple interessa solo il denaro???
Asus ZenBook Pro UX501 costa $ 1000 in meno ma ha specifiche migliori rispetto a macbook pro 2015

È piuttosto sexy e una bella scoperta. S

Samuelsan2001

24 ottobre 2013


  • 29 giugno 2015
SHEEPOS ha detto: quindi c'è qualche motivo per cui Apple non è andata con maxwell nvidia quest'anno?

Poiché sono andati con AMD, immagino che le ragioni fossero troppo numerose da elencare qui e che solo i dipendenti Apple coinvolti in quella decisione sappiano cosa sono e come hanno funzionato i pro ei contro.

Nonostante l'amore per NVIDIA che sta succedendo qui (non gioco quindi non me ne frega niente di loro) le ultime schede Fury AMD si stanno muovendo più velocemente in quasi tutto. La loro nuova architettura con RAM incorporata sembra essere un po' una bestia con enormi capacità di larghezza di banda. Una volta che questi arriveranno alla fase mobile, potremmo avere delle meravigliose schede grafiche negli rMBP e negli iMac.

lowendlinux

24 settembre 2014
Germania
  • 29 giugno 2015
Samuelsan2001 ha dichiarato: Poiché sono andati con AMD, immagino che i motivi fossero troppo numerosi da elencare qui e che solo i dipendenti Apple coinvolti in quella decisione sappiano cosa sono e come hanno funzionato i pro ei contro.

Nonostante l'amore per NVIDIA che sta succedendo qui (non gioco quindi non me ne frega niente di loro) le ultime schede Fury AMD si stanno muovendo più velocemente in quasi tutto. La loro nuova architettura con RAM incorporata sembra essere un po' una bestia con enormi capacità di larghezza di banda. Una volta che questi arriveranno alla fase mobile, potremmo avere delle meravigliose schede grafiche negli rMBP e negli iMac.

Fury è ancora troppo eccitato per farlo diventare mobile. Scommetto che ci mancano ancora un paio d'anni per quello. Sono d'accordo che il '16 e il '17 saranno anni killer per AMD ed era ora.

Shirasaki

16 maggio 2015
  • 29 giugno 2015
Dark Void ha detto: Andrò avanti e fornirò alcune delle mie esperienze e dei miei consigli qui:

Usa solo quello che ti piace. Se ti piace Windows, è fantastico. Se preferisci l'economicità di un notebook Windows in termini di ciò che ottieni, anche questo è fantastico. I Mac non sono migliori dei PC per impostazione predefinita, i PC non sono migliori dei Mac per impostazione predefinita. Non c'è bisogno di difendere gli acquisti, la qualità costruttiva o altri punti di vista di ciò che costituisce un computer.

Che Asus possa durare un anno, o che possa durare 3 o anche 4 - tutto si riduce a ciò che preferisci e a ciò che preferisci fare con i tuoi soldi. Dopotutto è il tuo computer: non c'è bisogno di colpire o difendere ciò che qualcun altro sta considerando o di cui è soddisfatto.

Io, per esempio, in generale con poche eccezioni, credo che la longevità di un computer sia influenzata principalmente da come viene curato, non perché è Apple, Asus, Acer o quello che hai. Sono consapevole dell'idea e della realtà della qualità costruttiva, ma ho avuto un notebook Asus per 3 anni per il quale ho pagato $ 650, un Lenovo Ideapad (anch'esso $ 650) che viene ancora utilizzato nella mia famiglia da 3 anni e mezzo, e un Hannspree (esatto - di chi qui ha mai sentito parlare Hannspree ) netbook che ho pagato $ 250 per il quale ho usato per un po' e ora lo sta usando un altro membro della famiglia, e anche quello è stato acquistato 3 anni fa.

Non esiste una risposta predefinita a questo. I Mac non durano X anni e i notebook Windows non durano Y anni e, come sempre... le specifiche hardware non sono l'unico motivo per acquistare un notebook. Ci sono molti altri fattori, basta fare i compiti e trovare quello che preferisci.
Ho un notebook Asus, con processore core i5 2410 m già obsoleto, 8 GB di ram, gpu gt 540m. Lo uso dal primo giorno fino al giorno in cui parto da casa mia per qui per un grado superiore.

Quando aggiungo la RAM da 2 GB predefiniti a 8 GB, riscontro un problema BSOD intollerabile. Asus mi ha finalmente sostituito con una nuova scheda madre, quindi non c'è alcun problema significativo. Molto solido e può ancora fare un lavoro decente, compresi i giochi pesanti (potresti conoscere il comandante supremo, che è una fame di gpu). Al contrario, molti computer del mio compagno di scuola soffrono di problemi di surriscaldamento o errori del disco rigido.

Sono d'accordo con il tuo punto. Se lo usi con attenzione, può durare abbastanza a lungo prima che muoia. In caso contrario, anche rMB ultra costosi potrebbero diventare inutilizzabili in pochi giorni. D

Dead0k

23 aprile 2015
Polonia
  • 29 giugno 2015
Hopefulhandle ha detto: Sto scrivendo questo su un laptop Acer Windows 8.1 economico. Entro un anno dall'acquisto, l'unità DVD/CDR si è guastata, i tasti numerici sopra la tastiera hanno smesso di funzionare; i numeri da tre a sei non funzionano sebbene i tasti funzione lo facciano e ho un lungo cavo Ethernet che serpeggia sul pavimento della mia cucina perché l'adattatore di rete wireless ha smesso di funzionare. Tutto entro un anno.
triste per la tua esperienza
Ho ancora una eMachines (una sottomarca di Acer) del 2011, e la tratto in modo molto buono.
Ancora vivo ed efficace per la maggior parte delle attività quotidiane.

Quindi importa molto come vi interessa l'elettronica.

lowendlinux

24 settembre 2014
Germania
  • 29 giugno 2015
Fino a circa 6 settimane fa stavo usando un Latitude E6500 dell'era 2009, il mio nuovo laptop è un Latitude E6420 del 2011. Il PC durerà quanto il Mac

maflynn

Moderatore
Membro dello staff
3 maggio 2009
Boston
  • 29 giugno 2015
Dark Void ha detto: non c'è una risposta predefinita a questo. I Mac non durano X anni e i notebook Windows non durano Y anni e, come sempre... le specifiche hardware non sono l'unico motivo per acquistare un notebook. Ci sono molti altri fattori, basta fare i compiti e trovare quello che preferisci.

Questa è la cosa, mentre sono d'accordo principalmente sulla qualità costruttiva di Apple, molte persone qui che pubblicizzano la sua qualità in genere acquistano nuovi laptop ogni tre anni. Per me, preferirei spendere 2.000 ogni 3 anni.

Per quanto riguarda la qualità Apple, la mia fiducia in loro è stata scossa, con i problemi con la dGPU, penso ancora che i Mac siano ottimi computer ed è difficile per me immaginare di ottenere qualcos'altro, ma se spendo più di 2.000 per un computer Vorrei la tranquillità che il dPGU non si spenga in 3 anni o che il rivestimento antiriflesso non inizi a sfaldarsi. S

Samuelsan2001

24 ottobre 2013
  • 29 giugno 2015
maflynn ha detto: Questa è la cosa, mentre sono d'accordo principalmente sulla qualità costruttiva di Apple, molte persone qui che pubblicizzano la sua qualità in genere acquistano nuovi laptop ogni tre anni. Per me, preferirei spendere 2.000 ogni 3 anni.

Per quanto riguarda la qualità Apple, la mia fiducia in loro è stata scossa, con i problemi con la dGPU, penso ancora che i Mac siano ottimi computer ed è difficile per me immaginare di ottenere qualcos'altro, ma se spendo più di 2.000 per un computer Vorrei la tranquillità che il dPGU non si spenga in 3 anni o che il rivestimento antiriflesso non inizi a sfaldarsi.

Quella tranquillità sarebbe piacevole, ma semplicemente non la otterrai da nessuno, tutta l'elettronica può fallire e tutti gli articoli fabbricati in serie avranno problemi in alcune unità, temo che sia la vita.

Non capisco perché le persone tengano la Apple a standard molto più alti di quanto non facciano tutti gli altri...

Non puoi semplicemente dire il prezzo quando tutti gli altri OEM producono computer che sono molto comparabili nei loro costi e specifiche se apparentemente non costruiscono qualità e attenzione ai dettagli.

crepuscolo007

5 dicembre 2009
  • 29 giugno 2015
Samuelsan2001 ha detto: Nonostante l'amore per NVIDIA che sta succedendo qui (non gioco quindi non me ne frega niente di loro) le ultime schede Fury AMD si stanno muovendo più velocemente in quasi tutto. La loro nuova architettura con RAM incorporata sembra essere un po' una bestia con enormi capacità di larghezza di banda. Una volta che questi arriveranno alla fase mobile, potremmo avere delle meravigliose schede grafiche negli rMBP e negli iMac.
Fury non ha quasi margine di overclocking è ancora così leggermente più lento dell'altrettanto grande chip 980 TI che ha un margine di overclock piuttosto serio. Fury è molto meglio del 290x/390x, ma ha ancora bisogno di più potenza di Maxwell nonostante la memoria più efficiente e più veloce. Inoltre è raffreddato ad acqua.
Possono avvicinarsi a Nvidia sui desktop dove il raffreddamento ad acqua funziona e il consumo energetico totale non è così importante, ma sui notebook l'efficienza energetica è tutto. E Fury non può battere Maxwell, l'M370X è ancora una tecnologia molto più vecchia di Fury.
Non si tratta di amare Nvidia o AMD, ma solo risultati oggettivi in ​​cui Maxwell è semplicemente il migliore in circolazione in questo momento.
Reazioni:vbedia

koyoot

5 giugno 2012
  • 29 giugno 2015
Quu ha detto: Bene, se torniamo al 2013 potresti notare che a giugno al WWDC 13 hanno annunciato il Mac Pro con grafica Dual AMD. Questo è stato l'inizio dell'allontanamento di Apple da NVIDIA.

Nell'ottobre di quell'anno rilasciarono il MacBook Pro 15' con grafica da 750 m ma questo era lo stesso chip del 650 m, entrambi kepler, stesso pin out sul chip. Tutto quello che Apple doveva fare era scambiare i chip. Cambia pochissimo.

Avanti veloce all'iMac Retina, di nuovo AMD, ora abbiamo l'rMBP 2015, anche AMD.

Penso che ciò che stiamo vedendo qui non sia proprio che Apple stia scegliendo AMD perché è migliore, ma perché stanno curando una relazione più stretta con AMD quando si tratta di grafica. Questa stretta relazione ha portato alla D300, D500 e D700 per Apple Mac Pro che sono completamente esclusive Apple ancora oggi (sebbene siano basate sull'HD 7970) e sono stati anche i primi a ottenere l'M370X.

NVIDIA sembra essere molto meno flessibile, non gli verrà imposto. Ad esempio, non daranno Apple GTX 980 o 780 Ti (allora) rinominate come Quadro D780. Questo è ciò che AMD ha fatto per Apple.

Quindi, ancora una volta, non penso che abbia nulla a che fare con le prestazioni, si tratta di una relazione che le due società stanno curando e sta spingendo NVIDIA fuori dai sistemi Apple e penso che sia dannoso poiché NVIDIA attualmente ha le parti più veloci in ogni busta termica.
Hai effettivamente utilizzato GPU AMD e Nvidia per qualcosa di simile a Final Cut Pro?

Dalla mia esperienza personale nelle attività del mondo reale, nella creazione di contenuti le GPU AMD sono più veloci di quelle Nvidia. Più veloce. R9 280X in Mac Pro 5.1 (3,46 GHz, 24 GB di RAM) era più veloce di GTX970. 40% più veloce.

So che le persone mi mostreranno benchmark dai benchmark che mostrano come le GPU Nvidia siano migliori di AMD nel rilevamento dei volti. OK. Ma Sony Vegas Pro è un benchmark che simula le attività del mondo reale. Ancora una volta, simula. E anche quel benchmark mostra che nella transcodifica, ad esempio, le GPU AMD sono più veloci di quelle Nvidia. L'unica cosa che rende Nvidia migliore agli occhi delle persone è l'appeal del marchio di gioco. Ma anche questo non mostra tutta la verità. In 4K, ad esempio, la R9 390X è solo il 20% più lenta della GTX980 Ti, che è ovunque elogiata per le sue prestazioni. E come abbiamo già visto nei giochi, le GPU AMD migliorano anno dopo anno, mentre quelle Nvidia peggiorano. Confronta i benchmark di r9 290X vs 780 Ti del 2013 e del 2015. Sono davvero diversi. Ora la R9 290X è più veloce.

Inoltre, DirectX, Metal e Vulkan scuoteranno le cose. L'adozione di API a basso costo era ciò di cui AMD aveva bisogno.

crepuscolo007 ha detto: Fury non ha quasi margine di overclocking è ancora così leggermente più lento dell'altrettanto grande chip 980 TI che ha un margine di overclock piuttosto serio. Fury è molto meglio del 290x/390x, ma ha ancora bisogno di più potenza di Maxwell nonostante la memoria più efficiente e più veloce. Inoltre è raffreddato ad acqua.
Possono avvicinarsi a Nvidia sui desktop dove il raffreddamento ad acqua funziona e il consumo energetico totale non è così importante, ma sui notebook l'efficienza energetica è tutto. E Fury non può battere Maxwell, l'M370X è ancora una tecnologia molto più vecchia di Fury.
Non si tratta di amare Nvidia o AMD, ma solo risultati oggettivi in ​​cui Maxwell è semplicemente il migliore in circolazione in questo momento.
Si scopre che potresti non avere ragione. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Controlla tu stesso. Prima di OC la GPU aveva un punteggio complessivo di 12K e un punteggio grafico di 15,5K.
100 MHz e la GPU inizia a VOLARE! Il punteggio è più alto di qualsiasi cosa in questo momento sul mercato.

Modificare. A proposito di efficienza energetica...
Se hai una GPU Nvidia di riferimento, sì, utilizzerà meno energia della GPU AMD. Tuttavia, la Reference GTX 970 con limite di clock del BIOS sarà 3 volte più lenta della R9 280X. Se hai una GTX 970 non di riferimento, non ci sarà alcun limite di clock nel BIOS e sarà solo il 40% più lento. Il problema è: assorbirà 270W di potenza nel lavoro OPENCL.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Ecco una prova. Ultima modifica: 29 giugno 2015

koyoot

5 giugno 2012
  • 29 giugno 2015
Quu ha detto: ho pensato la stessa cosa, ma se guardi effettivamente i benchmark Maxwell OpenCL tutte le schede NVIDIA calpestano AMD.

Veramente. Guarda il 970 o 980 o Titan o Titan X o 980 Ti. Molto al di sopra di tutte le schede AMD nei benchmark OpenCL. Stessa situazione sulle versioni mobili, 950m e 960m.

Le vecchie schede NVIDIA Kepler erano terribili a OpenCL assolutamente spazzatura, 70%-90% più lente di AMD. Ma le schede Maxwell sono il 10-50% più veloci di AMD negli stessi segmenti di mercato.

Anche se sono stato sorpreso di scoprirlo quando ho studiato i benchmark di recente, dai un'occhiata a questo: https://i.imgur.com/wiK5ZSG.png'bbCodeBlock-expandLink js-expandLink'>
Non sono più veloci nei COMPITI DEL MONDO REALE! Usa la GPU Maxwell per Final Cut Pro e la butterai via e tornerai alla soluzione AMD. Ho testato GTX970 e R9 280X in Final Cut Pro e la GPU AMD era il 40% più veloce!

Il benchmark di Sony Vegas Pro mostra solo un assaggio della differenza tra AMD e GPU Nvidia nella transcodifica, ma è una scala piuttosto grande.

Chi

2 aprile 2007
  • 29 giugno 2015
koyoot ha detto: hai effettivamente utilizzato la GPU AMD e Nvidia per qualcosa di simile a Final Cut Pro?

Non ho. Ho esaminato solo i benchmark delle prestazioni generali di OpenCL. Se hai collegamenti a benchmark che mostrano differenze nelle suite video, sarei interessato a guardarli per istruirmi.

koyoot ha detto: Non sono più veloci nei COMPITI DEL MONDO REALE! Usa la GPU Maxwell per Final Cut Pro e la butterai via e tornerai alla soluzione AMD. Ho testato GTX970 e R9 280X in Final Cut Pro e la GPU AMD era il 40% più veloce!

Il benchmark di Sony Vegas Pro mostra solo un assaggio della differenza tra AMD e GPU Nvidia nella transcodifica, ma è una scala piuttosto grande.

Ancora una volta, se hai dei benchmark, sarei felice di guardarli.

koyoot

5 giugno 2012
  • 29 giugno 2015
Posso solo darti quello che ho testato da solo. Nessuna delle recensioni che ho visto ha testato i benchmark del mondo reale, a parte la simulazione del carico di lavoro del mondo reale di Sony Vegas Pro. E questo è il punto di riferimento per farlo.

Chi

2 aprile 2007
  • 29 giugno 2015
Penso che qualcosa da considerare sia che Apple in realtà non spedisce la GTX 970 o 980 in nessuno dei suoi sistemi, quindi non mi aspetto che Final Cut Pro ci canti sopra. Inoltre, non mi aspetto che gli sviluppatori di terze parti si concentrino su quell'hardware.

Ma se tutti i benchmark OpenCL mostrano che NVIDIA è più veloce, probabilmente c'è qualcosa in questo. OpenCL è dopotutto solo un'API per eseguire carichi di lavoro sulla GPU.

koyoot

5 giugno 2012
  • 29 giugno 2015
No. Non tutti.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'js-selectToQuoteEnd'>

Chi

2 aprile 2007
  • 29 giugno 2015
koyoot ha detto: No. Non tutti.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'bbCodeBlock-expandLink js-expandLink'>

Ok, prima di tutto calmati. In secondo luogo, non ho menzionato una volta nulla sul rilevamento dei volti, tutto qui. Il benchmark OpenCL che ho pubblicato poche pagine fa è un rendering di scene OpenCL. Puoi vederlo qui se ti va di dare un'occhiata:
https://i.imgur.com/wiK5ZSG.png'js-selectToQuoteEnd '>

koyoot

5 giugno 2012
  • 29 giugno 2015
Non ho postato quel link a causa di Fury. Ci sono GPU Grenada/Hawaii e GM204. Inoltre Grenada risulta essere più veloce in alcune attività rispetto a GTX Titan X.

Inoltre, Luxmark v2.1 è un vecchio benchmark. Luxmark v3 è lo stesso ma più nuovo e più complesso. È come confrontare i punteggi di 3dMark Vantage con 3dMark FireStrike. Il secondo è più nuovo, più complesso e mostra un po' di più del vecchio.

Terzo. Sono completamente calmo. Semplicemente non compro tutto quello che c'è nelle recensioni. Se vuoi credere che le GPU Maxwell siano migliori in termini di calcolo, cosa che non lo sono, dipende da te. So che non tutto ciò che viene scritto nelle recensioni è vero e diventa sempre obsoleto con ogni nuova versione di driver/tecnologia che arriva.

Chi

2 aprile 2007
  • 29 giugno 2015
koyoot ha detto: non ho postato quel link a causa di Fury. Ci sono GPU Grenada/Hawaii e GM204. Inoltre Grenada risulta essere più veloce in alcune attività rispetto a GTX Titan X.

Inoltre, Luxmark v2.1 è un vecchio benchmark. Luxmark v3 è lo stesso ma più nuovo e più complesso. È come confrontare i punteggi di 3dMark Vantage con 3dMark FireStrike. Il secondo è più nuovo, più complesso e mostra un po' di più del vecchio.

Terzo. Sono completamente calmo. Semplicemente non compro tutto quello che c'è nelle recensioni. Se vuoi credere che le GPU Maxwell siano migliori in termini di calcolo, cosa che non lo sono, dipende da te. So che non tutto ciò che viene scritto nelle recensioni è vero e diventa sempre obsoleto con ogni nuova versione di driver/tecnologia che arriva.

Non sto dicendo che non sto credendo ai parametri che hai condiviso. Semplicemente non penso che sia così in bianco e nero come dici tu, molte delle differenze sono entro pochi punti percentuali se scartiamo la Fury X, cosa che non penso dovremmo perché probabilmente verrà utilizzata nel Aggiornamento Mac Pro.

E sono d'accordo che i nuovi benchmark dovrebbero essere focalizzati su. Non sono un fan di Luxmark, non ne so nulla, ho appena cercato su Google OpenCL Maxwell ed è stato il successo più grande.

Sorseggia una limonata e goditi il ​​clima caldo.

crepuscolo007

5 dicembre 2009
  • 29 giugno 2015
koyoot ha detto: Si scopre che potresti non avere ragione. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Controlla tu stesso. Prima di OC la GPU aveva un punteggio complessivo di 12K e un punteggio grafico di 15,5K.
100 MHz e la GPU inizia a VOLARE! Il punteggio è più alto di qualsiasi cosa in questo momento sul mercato.
Potresti voler dare un'occhiata più da vicino. Il punteggio è passato da 14k predefinito a 17k mentre Maxwell OC raggiunge 19,4k (mentre è raffreddato ad aria)
http://uk.hardware.info/reviews/615...-flag-ship-graphics-card-overclocking-results
Fury ha un grande valore sui desktop perché ottieni un sistema di raffreddamento ad acqua bello e relativamente tranquillo che da solo ti farebbe risparmiare un bel po 'di pesetos. AMD ha anche detto che la memoria oc è inutile su quelle GPU, quindi ho i miei dubbi su questi risultati di overclock. Ho controllato alcuni thread del forum e nessuno è riuscito a trovare nulla che confermi questi risultati. Uno non ha gestito un tale overclock e non ha ottenuto nulla di utile da un overclock di memoria a 50 Mhz.
koyoot ha detto: Modifica. A proposito di efficienza energetica...
Se hai una GPU Nvidia di riferimento, sì, utilizzerà meno energia della GPU AMD. Tuttavia, la Reference GTX 970 con limite di clock del BIOS sarà 3 volte più lenta della R9 280X. Se hai una GTX 970 non di riferimento, non ci sarà alcun limite di clock nel BIOS e sarà solo il 40% più lento. Il problema è: assorbirà 270W di potenza nel lavoro OPENCL.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Ecco una prova.
Una 280X è in media una scheda più lenta del 20-30% rispetto a una 970 in 3D. Il lavoro OpenCL e uno stress test non sono la stessa cosa. In teoria potresti ottenere tali secnario di carico, ma in realtà la maggior parte dei banchi CL non si avvicina affatto.
Gran parte dei punti deboli che Nvidia mostra in tali scenari di computer è puramente il driver.
Confronta il quadro M6000 con qualcosa come Firepro W9100.
http://www.tomshardware.de/quadro-m...ikkarte-benchmarks,testberichte-241756-7.html
Maxwell è abbastanza bravo in tutti questi scenari, si dà il caso che Nvidia non voglia che le sue schede consumer siano buone negli scenari delle workstation. Poiché Apple è responsabile di una parte significativa del driver su OSX, non avrebbero prestazioni volutamente paralizzate in questo tipo di scenari di carico sotto OSX. Probabilmente non proprio le prestazioni di Windows, ma non la netta differenza tra le prestazioni delle workstation e quelle dei consumatori. m

mickeydean

9 dicembre 2011
  • 29 giugno 2015
Siamo al punto in cui Apple ha bisogno di provare a guidare il mercato. Capisco in termini di entrate e logistica che fa le cose in cicli mentre i produttori di PC sono più agili. Il mercato 'pro' potrebbe essere curato meglio con opzioni per di più. Non credo che avere il 750 m riguardi una certa visione dell'informatica, ma piuttosto l'acquisto all'ingrosso e l'utilizzo di un chip più economico e più debole per il risparmio energetico, il prezzo, ecc. Ci sono quelli che pagherebbero per i 970 m ma i progetti ora forma di valore sulla funzione in una certa misura.

koyoot

5 giugno 2012
  • 29 giugno 2015
Crepuscolo, dimmi perché, Luxmark v2 mostra che GM200 è più veloce della GPU Hawaii e Luxmark v3 mostra che la GPU Hawaii è più veloce di GM200? Entrambi sono gli stessi chip. Non c'è paralizzante delle prestazioni, perché Maxwell in DP è ...t. Si differenziano solo per i nomi. Com'è possibile, quel banco più vecchio mostra il vantaggio della GPU Maxwell e quello più recente mostra il vantaggio della GPU Hawaii?

http://scr3.golem.de/screenshots/15...uxmark-v3- (complex-scene, -gpu-only) -chart.png'js-selectToQuoteEnd '> J

joe-h2o

24 giugno 2012
  • 29 giugno 2015
inhalexhale1 ha dichiarato: Il 960m è il 60% più veloce dell'm370x. Non penso che sia sopravvalutata, ma piuttosto una carta preferita per la fascia bassa AMD che Apple ha scelto per questo aggiornamento. La 950m è anche una carta molto migliore. Sono d'accordo con le lamentele. Apple fa pagare lo stesso prezzo di sempre e, sebbene la nuova carta sia più potente, è un passo indietro nella classe generale.

Il 960M è anche il 50% più affamato di energia rispetto al 370x, che non volerà in un design TDP già stretto. Il meglio che Apple sarebbe in grado di fare è la 950M, che è simile all'offerta di AMD, forse un po' meglio. Perché non hanno scelto Nvidia non ne ho idea.

lowendlinux

24 settembre 2014
Germania
  • 29 giugno 2015
Signori, non credo che risolveremo questo problema qui e per complicare le cose stiamo ora parlando di GPU desktop di fascia alta nella sezione MacBook Pro.
Reazioni:manico speranzoso

koyoot

5 giugno 2012
  • 29 giugno 2015
Non andrei così lontano con il consumo di energia. GTX960 dovrebbe rientrare nell'inviluppo di assorbimento di potenza di 35-45 W. E guardando la recensione di notebookcheck di MBP, sembra che il consumo energetico sia piuttosto elevato, perché può superare anche il limite di 85 W dell'alimentatore, di 6 W. Quindi non direi che è più affamato di energia rispetto a M370X.

Inoltre, non direi che è il 60% più veloce di M370X, perché le prestazioni in Final Cut Pro saranno molto più elevate sul chip AMD rispetto a qualsiasi GPU Maxwell disponibile per un budget di alimentazione di 45 W.

Nei giochi, forse la GPU Nvidia sarà anche il 60% più veloce. Ma i giochi non sono tutto.

Chi

2 aprile 2007
  • 29 giugno 2015
koyoot ha detto: non andrei così lontano con il consumo di energia. GTX960 dovrebbe rientrare nell'inviluppo di assorbimento di potenza di 35-45 W. E guardando la recensione di notebookcheck di MBP, sembra che il consumo energetico sia piuttosto elevato, perché può superare anche il limite di 85 W dell'alimentatore, di 6 W. Quindi non direi che è più affamato di energia rispetto a M370X.

Inoltre, non direi che è il 60% più veloce di M370X, perché le prestazioni in Final Cut Pro saranno molto più elevate sul chip AMD rispetto a qualsiasi GPU Maxwell disponibile per un budget di alimentazione di 45 W.

Nei giochi, forse la GPU Nvidia sarà anche il 60% più veloce. Ma i giochi non sono tutto.

La GTX 960m è 75 Watt, la 950m è 45 Watt, la M370X è 50 Watt (apparentemente). Precedente
Prossimo Primo Precedente

Vai alla pagina

andareProssimo Scorso