Tanelorn.net

Medien & Phantastik => Multimedia => Multimedia - Hardware => Thema gestartet von: Felixino am 20.12.2007 | 09:57

Titel: Hat wer Erahrung mit Crossfire?
Beitrag von: Felixino am 20.12.2007 | 09:57
Hi, ich hab zur Zeit nen recht aktuellen Rechner und ne "X1950GT Super" Grafikkarte drinnen, welche Crossfire bietet. Jetzt hab ich keien Erfahrung und kenn mich nur eib issel mit SLI aus und woltle fragen ob da eienr vone uch ne Azhnung hat, wie das genau funktioniert.
Titel: Re: Hat wer Erahrung mit Crossfire?
Beitrag von: critikus am 8.01.2008 | 16:36
Also,

Crossfire ist nicht SLI. Crossfire ist von ATI und SLI von NVIDIA und kann nur mit den entsprechenden Karten bestückt werden. Glücklich kannst du sein, wenn du noch eine identische zweite GraKa bekommst, sonst macht beides keinen Sinn. Und beachte: zwei GraKa bedeutet mehr Lärm und Energieverbrauch und du brauchst auch Programme, die Corssfire/SLI unterstützen. Und auch dann ist es nicht sicher, dass wirklich eine nennenswerte Geschwindigkeitssteigerung herauskommt.
Titel: Re: Hat wer Erahrung mit Crossfire?
Beitrag von: Yerho am 8.01.2008 | 22:25
Ich schließe mich Critikus an, sieht man von folgendem Teil ab:

und du brauchst auch Programme, die Corssfire/SLI unterstützen

Tatsächlich ist es so, dass die Verteilung der Last erst einmal rein hardwareseitig (wenn auch durch Treiber gesteuert) erfolgt. Die GPUs und Speicher der Grafikkarten teilen sich im Prinzip die Aufgaben, die ihnen erteilt werden, was aber keine Verbesserung der Performance bringt, die den erhöhten Geld- und Energieaufwand rechtfertigen würde. Da ist das Geld in eine einzelne Grafikkarte des obersten Segments sinnvoller investiert.

Klar, wenn die Software das Ganze zusätzlich unterstützt und die verbundene Grafikkarten mit bereits vorher verteilten Aufgaben direkt anspricht, lassen sich tatsächlich beeindruckende Ergebnisse erzielen. Aber bisher zeigen nicht einmal die mit ATI respektive Nividia verbandelten Software-Schmieden nennenswerte Bemühungen, in dieser Richtung zu entwickeln. Grund: Es ist aufwendig und der Kundenkreis ist (noch) viel zu klein.

Was das "noch" angeht, glaube ich nicht ernsthaft an eine Änderung: Bei den CPUs hat sich durchgesetzt, mehrere Prozessorkerne zu verwenden, während die gleichzeitige Nutzung mehrerer Prozessoren einen absoluten Exoten-Status genießt. Ich sehe keinen Grund, warum das in näherer oder ferner Zukunft bei den GPUs anders ablaufen sollte. Grund: Man braucht weniger redundante Teile und damit weniger Platz und Energie und erzeugt auch weniger Abwärme.