startergo
Eredeti plakát- 2018. szeptember 20
- 2019. február 3
Az R9 280X-emen keresztül látom a rendszerindító képernyőt, de körülbelül 75%-nál leállítja az Apple boot logóját.
Amikor a HS be van töltve, csak az RX 580 kimenete jelenik meg a képernyőn.
A Windows 10 rendszerben pontosan ugyanaz a beállítás működik jól, mindkét kártya a képernyőjére kerül. Még azt is látom, hogy a kereszttűz engedélyezve van a Furmark stressztesztjében.
Hiányzik itt valami? Miért nem ad le HS-t az R9 280X az RX 580-zal együtt?
h9826790
- 2014. április 3
- Hong Kong
- 2019. február 3
startergo azt mondta: Az R9 280X DVI-n keresztül van csatlakoztatva az 1-es foglalatba, és az RX 580-at DP-DVI-adapteren keresztül a 2-es foglalatba.
Az R9 280X-emen keresztül látom a rendszerindító képernyőt, de körülbelül 75%-nál leállítja az Apple boot logóját.
Amikor a HS be van töltve, csak az RX 580 kimenete jelenik meg a képernyőn.
A Windows 10 rendszerben pontosan ugyanaz a beállítás működik jól, mindkét kártya a képernyőjére kerül. Még azt is látom, hogy a kereszttűz engedélyezve van a Furmark stressztesztjében.
Hiányzik itt valami? Miért nem ad le HS-t az R9 280X az RX 580-zal együtt?
Crossfire 280X RX580-zal? AFAIK, A Crossfire dózisokhoz nincs szükség „illesztett páros” GPU-ra, de mindkét GPU-nak ugyanahhoz a családhoz KELL tartoznia.
startergo
Eredeti plakát- 2018. szeptember 20
- 2019. február 3
h9826790 mondta: Crossfire 280X RX580-zal? AFAIK, A Crossfire dózisokhoz nincs szükség „illesztett páros” GPU-ra, de mindkét GPU-nak ugyanahhoz a családhoz KELL tartoznia.Én is meglepődtem, de Furmark ezt mondta: Crossfire engedélyezve
startergo
Eredeti plakát- 2018. szeptember 20
- 2019. február 3
h9826790
- 2014. április 3
- Hong Kong
- 2019. február 3
startergo mondta: 819716. számú melléklet megtekintése
Köszönöm a megosztásokat. Érdekes információ.
Crossfire engedélyezve.
Mindkét GPU ~100%-on fut. (Ez normális Furmark esetében)
De a 280X csak 61 C-ról 64 C-ra melegszik fel. (Ez a rész normális, feltételezve, hogy a 280X-nek jó a hűtője)
Az RX580 órajele 639.8MHz-et mutat, VDDC 0V, rosszabbul teljesít, mint a 280X (egyértelműen nagyon rossz).
Megpróbáltad eltávolítani a 280X-et, és ugyanazt a tesztet futtatni csak az RX580-al?
startergo
Eredeti plakát- 2018. szeptember 20
- 2019. február 4
h9826790 mondta: Köszönjük a megosztást. Érdekes információ.A feszültség 0 VDC talán azért, mert SATA tápról táplálom, és nem méri pontosan:
Crossfire engedélyezve.
Mindkét GPU ~100%-on fut. (Ez normális Furmark esetében)
De a 280X csak 61 C-ról 64 C-ra melegszik fel. (Ez a rész normális, feltételezve, hogy a 280X-nek jó a hűtője)
Az RX580 órajele 639.8MHz-et mutat, VDDC 0V, rosszabbul teljesít, mint a 280X (egyértelműen nagyon rossz).
Megpróbáltad eltávolítani a 280X-et, és ugyanazt a tesztet futtatni csak az RX580-al?
Médiaelem megtekintése ' data-single-image='1'>
h9826790
- 2014. április 3
- Hong Kong
- 2019. február 4
startergo mondta: A feszültség 0VDC talán azért, mert SATA tápról táplálom és nem méri pontosan:
819791. számú melléklet megtekintése
A VDDC-t a grafikus kártyáról kell olvasni, nem az áramforrásról. Tehát valami nincs rendben (egyértelműen rossz az olvasás, lehet, hogy szoftver probléma, nem szükséges hardver).
Úgy tűnik, hogy a kártyája hő/teljesítményfojtó volt. Gyanítom, hogy ennek az az oka, hogy az OEM-kártya TDP-korlátja alacsonyabb a normálnál, ami miatt a kártya korábban éri el a teljesítményfojtási pontot, mint a normál RX580.
Mindenesetre átlagos FPS 87 vs 54, a crossfire úgy tűnik, valóban a vártnak megfelelően teljesít.
Lehet, hogy most már az összes GCN GPU kereszttüzébe kerülhet. Már pár éve nem használom. Nem egészen biztos, hogy a legfrissebb követelmény.
startergo
Eredeti plakát- 2018. szeptember 20
- 2019. február 4
h9826790 azt mondta: A VDDC-t a grafikus kártyáról kell olvasni, nem az áramforrásról. Tehát valami nincs rendben (egyértelműen rossz az olvasás, lehet, hogy szoftver probléma, nem szükséges hardver).A kártya TDP-je 130W. Talán azért, mert ugyanazt a meghajtót használják, a crossfire engedélyezve van? Tudom, hogy ha kiválasztom az egyik alap videó-illesztőprogramot, az nem fog ugyanúgy működni. Engem az zavar, hogy a HS-ben a 280 kikapcsolja a kimenetet .Van ötlet miért?
Úgy tűnik, hogy a kártyája hő/teljesítményfojtó volt. Gyanítom, hogy ennek az az oka, hogy az OEM-kártya TDP-korlátja alacsonyabb a normálnál, ami miatt a kártya korábban éri el a teljesítményfojtási pontot, mint a normál RX580.
Mindenesetre átlagos FPS 87 vs 54, a crossfire úgy tűnik, valóban a vártnak megfelelően teljesít.
Lehet, hogy most már az összes GCN GPU kereszttüzébe kerülhet. Már pár éve nem használom. Nem egészen biztos, hogy a legfrissebb követelmény.
h9826790
- 2014. április 3
- Hong Kong
- 2019. február 4
startergo mondta: A kártya TDP-je 130W. Talán azért, mert ugyanazt a meghajtót használják, a crossfire engedélyezve van? Tudom, hogy ha kiválasztom az egyik alap videó-illesztőprogramot, az nem fog ugyanúgy működni. Engem az zavar, hogy a HS-ben a 280 kikapcsolja a kimenetet .Van ötlet miért?
De a képernyőfelvétel azt mutatja, hogy az RX580 TDP-je 185 W. Legyen óvatos ezzel. A kártya TDP-je 130 W, de ez nagy valószínűséggel azt jelenti, hogy 130 W-ig jó a hűtési megoldás. A kártya pedig akár 185 W-ot is lemeríthet a szoftveres leolvasás alapján. És ez határozottan nem jó jel egy 6 tűs kártya esetén.
Amúgy eladtam már az összes HD7950-et, R9 280, R9 380, nem tudom tesztelni az RX580-al. De ha a 280X hibátlanul tud működni, amikor az eredeti ROM-ról indul, akkor nyilvánvalóan a Mac EFI okoz kompatibilitási problémákat.
startergo
Eredeti plakát- 2018. szeptember 20
- 2019. február 4
h9826790 mondta: De a képernyőfelvétel azt mutatja, hogy az RX580 TDP-je 185 W. Legyen óvatos ezzel. A kártya TDP-je 130 W, de ez nagy valószínűséggel azt jelenti, hogy 130 W-ig jó a hűtési megoldás. A kártya pedig akár 185 W-ot is lemeríthet a szoftveres leolvasás alapján. És ez határozottan nem jó jel egy 6 tűs kártya esetén.Nem számít, melyik ROM-ot használom. Csak akkor van gondom egyetlen kártya használatával, ha mindkettő telepítve van. Ami a teljesítményt illeti, a 2 SATA 108W-ot ad, tehát a 6 tűsön bőven van teljesítmény. Nem tudom, hogy tud 185 W-ot húzni, ha a ROM-ban korlátozva van?
Amúgy eladtam már az összes HD7950-et, R9 280, R9 380, nem tudom tesztelni az RX580-al. De ha a 280X hibátlanul tud működni, amikor az eredeti ROM-ról indul, akkor nyilvánvalóan a Mac EFI okoz kompatibilitási problémákat.
h9826790
- 2014. április 3
- Hong Kong
- 2019. február 4
startergo mondta: Nem számít, melyik ROM-ot használom. Nincsenek gondjaim egyetlen kártya használatával, csak akkor, ha mindkettő telepítve van. Ami a teljesítményt illeti, a 2 SATA 108W-ot ad, tehát a 6 tűsön bőven van teljesítmény. Nem tudom, hogy tud 185 W-ot húzni, ha a ROM-ban korlátozva van?
A ROM alapértelmezett beállítása NINCS 130 W-ra korlátozva a kártyára. Ez egy előre definiált szám 50% PowerTune-nal, ami azt jelenti, hogy ha 130 W 150% maximummal, akkor 195 W-ot tud felvenni.
Médiaelem megtekintése ' data-single-image='1'>
Amint az a nyert képernyőfelvételből látható, a 'Power max' 150% (ez a PowerTune határértéke). És a regisztrált TDP ebben a pillanatban 185 W. Ha feltételezzük, hogy 185W az előre meghatározott TDP +50%-a. Akkor ennek ~123W-nak kell lennie. És amíg a PowerTune 150%-on marad, a kártya akár 185 W-ot is felvesz (ha nem hőszabályozás stb.).
Windows rendszerben az AMD illesztőprogram vezérlőpultja lehetővé teszi a PowerTune számának megtekintését és beállítását. De macOS-ben csak ezt a számot kapja meg a ROM-ból. Az Ön esetében +50% max.
Továbbá a kártyád problémája NEM a 6pin-ből húz túl sokat, hanem a nyílásból.
A cMP elég jól felépítettnek tűnik. Tehát úgy tűnik, hogy 75 W-nál többet húz egy slotból, nincs káros hatása (legalábbis rövid ideig). Eddig egyetlen olyan esetről sem hallottam, hogy emiatt leégett volna a logikai tábla. Azonban jó néhány játék PC-s alaplap megviselte emiatt.
A kártya nem tudja, hogy a 6tűn mennyit tud lehúzni (pl. 108W-ig), de csak azt tudja, hogy az előre programozott minta szerint hogyan kell lehívni a kívánt teljesítményt. A kártya esetében. Úgy tűnik, hogy a kártya nagyjából elosztja a keresletet 2-vel. Tehát, ha valóban 180 W-ot húzunk, az 90 W-ot jelenthet a 6 tűsből és 90 W-ot a foglalatból.
Egyébként ha az EFI nem számít, de a multi GPU igen, akkor ez illesztőprogram-konfliktusnak tűnik.
startergo
Eredeti plakát- 2018. szeptember 20
- 2019. február 10
h9826790 mondta: A ROM alapértelmezett beállítása NEM korlátozza a 130 W-ot a kártyára. Ez egy előre definiált szám 50% PowerTune-nal, ami azt jelenti, hogy ha 130 W 150% maximummal, akkor 195 W-ot tud felvenni.
819863. számú melléklet megtekintése
Amint az a nyert képernyőfelvételből látható, a 'Power max' 150% (ez a PowerTune határértéke). És a regisztrált TDP ebben a pillanatban 185 W. Ha feltételezzük, hogy 185W az előre meghatározott TDP +50%-a. Akkor ennek ~123W-nak kell lennie. És amíg a PowerTune 150%-on marad, a kártya akár 185 W-ot is felvesz (ha nem hőszabályozás stb.).
Windows rendszerben az AMD illesztőprogram vezérlőpultja lehetővé teszi a PowerTune számának megtekintését és beállítását. De macOS-ben csak ezt a számot kapja meg a ROM-ból. Az Ön esetében +50% max.
Továbbá a kártyád problémája NEM a 6pin-ből húz túl sokat, hanem a nyílásból.
A cMP elég jól felépítettnek tűnik. Tehát úgy tűnik, hogy 75 W-nál többet húz egy slotból, nincs káros hatása (legalábbis rövid ideig). Eddig egyetlen olyan esetről sem hallottam, hogy emiatt leégett volna a logikai tábla. Azonban jó néhány játék PC-s alaplap megviselte emiatt.
A kártya nem tudja, hogy a 6tűn mennyit tud lehúzni (pl. 108W-ig), de csak azt tudja, hogy az előre programozott minta szerint hogyan kell lehívni a kívánt teljesítményt. A kártya esetében. Úgy tűnik, hogy a kártya nagyjából elosztja a keresletet 2-vel. Tehát, ha valóban 180 W-ot húzunk, az 90 W-ot jelenthet a 6 tűsből és 90 W-ot a foglalatból.
Egyébként ha az EFI nem számít, de a multi GPU igen, akkor ez illesztőprogram-konfliktusnak tűnik.
A GPU-Z csak 130-135 W maximális fogyasztást mért az RX-580-on. Illetve megfelelően mutatja az 1.025VDC maximum feszültséget is. Kipróbáltam egy másik tesztelő szoftvert, és a frekvencia 1300-ra ugrott
A miniDP-VGA konverter segítségével mindkét kártyát is sikerült elérni, hogy HS-ben kimenjen a kijelzőkre. Tehát mindkét kijelzőport megfelelően működik, de a DVI 2 kártyás konfigurációban kikapcsol.
h9826790
- 2014. április 3
- Hong Kong
- 2019. február 12
startergo azt mondta: A GPU-Z csak 130-135W maximális fogyasztást mért az RX-580-on. Illetve megfelelően mutatja az 1.025VDC maximum feszültséget is. Kipróbáltam egy másik tesztelő szoftvert, és a frekvencia 1300-ra ugrott
A miniDP-VGA konverter segítségével mindkét kártyát is sikerült elérni, hogy HS-ben kimenjen a kijelzőkre. Tehát mindkét kijelzőport megfelelően működik, de a DVI 2 kártyás konfigurációban kikapcsol.
130-135W GPU fogyasztás vagy grafikus kártya fogyasztás?
Ellenőrizted az AMD illesztőprogram paneljén, hogy a teljesítményhangolás 50%-os.
Amúgy úgy tűnik, hogy a 6xx MHz a teljesítményfojtás miatt van. Az AMD kiadta a javítást (amely megakadályozza, hogy a kártya túl sokat húzzon a PCIe slotból) illesztőprogram-frissítéssel, elképzelhető, hogy emiatt korlátozza a kártya teljesítményfelvételét az illesztőprogram. A macOS-ben azonban a viselkedése eltérő lehet, mivel nincs több extra energiafelvételi korlátozás az illesztőprogramtól. Mindenesetre, amilyen alacsony a napi munkafolyamatod, nem fut a Furmark, ez nem lehet probléma.
startergo
Eredeti plakát- 2018. szeptember 20
- 2019. február 12
h9826790 mondta: 130-135W GPU fogyasztás vagy grafikus kártya fogyasztás?Szerintem valami gond van a Furmarkkal, mivel teszteltem egy másik szoftverrel (elfelejtettem melyiket), és a kártya teljes sebességgel futott egy stressztesztben. Ráadásul nem látja megfelelően a feszültségfelvételt. De igen, a GPU-Z 135 W-os teljesítményfelvételt mért, ami megfelel a ROM-korlátnak.
Ellenőrizted az AMD illesztőprogram paneljén, hogy a teljesítményhangolás 50%-os.
Amúgy úgy tűnik, hogy a 6xx MHz a teljesítményfojtás miatt van. Az AMD kiadta a javítást (amely megakadályozza, hogy a kártya túl sokat húzzon a PCIe slotból) illesztőprogram-frissítéssel, elképzelhető, hogy emiatt korlátozza a kártya teljesítményfelvételét az illesztőprogram. A macOS-ben azonban a viselkedése eltérő lehet, mivel nincs több extra energiafelvételi korlátozás az illesztőprogramtól. Mindenesetre, amilyen alacsony a napi munkafolyamatod, nem fut a Furmark, ez nem lehet probléma.
h9826790
- 2014. április 3
- Hong Kong
- 2019. február 12
startergo mondta: Szerintem valami nem stimmel a Furmarkkal, mivel teszteltem egy másik szoftverrel (elfelejtettem melyiket), és a kártya teljes sebességgel futott egy stressztesztben. Ráadásul nem látja megfelelően a feszültségfelvételt. De igen, a GPU-Z 135 W-os teljesítményfelvételt mért, ami megfelel a ROM-korlátnak.
A Furmarkon kívül kipróbálhatja az OCCT-t is.
MIKX
- 2004. december 16
- Japán
- 2019. június 25
Mi a GPU tápkábel beállítása mindkét kártyához? Utoljára szerkesztve: 2019. június 25
Népszerű Bejegyzések