gekkonier hat geschrieben:Aber warum? Das Teil hat einige Netzteile verbaut... Versteh ich nicht. Kann mich wer erleuchten wie er das zusammengebracht haben könnte?
Es gab mal ne Zeit, da waren 150 Watt Netzteile üblich. Heute sinds 350 - 1000 Watt. Und das was am meisten frisst ist RAM und Grafikkarte und Soundkarte. Und das braucht er da ja kaum.
@Kaeru:
Klar, aber es las sich so, als ob du meintest es werden immer nur CPUs verwendet und nie was anderes.
[EDIT]
gekkonier (Posting unter mir):
Sag ich doch.
Zuletzt geändert von DarkDragon am 16.02.2009 16:11, insgesamt 1-mal geändert.
Angenommen es gäbe einen Algorithmus mit imaginärer Laufzeit O(i * n), dann gilt O((i * n)^2) = O(-1 * n^2) d.h. wenn man diesen Algorithmus verschachtelt ist er fertig, bevor er angefangen hat.
Mit der Grafikkarte rendern gäbe es z.B. Gelato von Nvidia.
Mir persönlich geht es da eher um Animationen mit GI, Caustics usw. usf.
Manchmal werde ich auf den Mühlen auch Renderer, die mit MLT Technik arbeiten, verwenden - wie Indigo oder Kerkythea, die sind in diesem Bereich nämlich auch Netzwerkfähig. Deshalb werden die Computer mit der popeligen onboard Ausstattung auskommen, da sie ja nix anzeigen sondern einfach nur berechnen sollen.
Kaeru Gaman hat geschrieben:
mag sein, dass auf einer Grafikkarte da etwas schneller sein kann,
wenn die GPU eine bessere Anbindung an den Grafikkartenspeicher
hat als die CPU an den Hauptspeicher...
aber im Endeffekt ist es egal welche Kern-Speicher-Kombination man benutzt.
Soweit ich gehöhrt hab ist das Rendering über GPU erheblich schneller. Weil da einfach viel mehr Recheneinheiten drinnenstecken, die Parallel arbeiten können. Wärend wir pro Core bei einer CPU ja nur eine einzige FPU haben, haben wir mittlerweile pro GPU mehrere hundert FPU's.
Zu mir kommen behinderte Delphine um mit mir zu schwimmen.
Wir fordern mehr Aufmerksamkeit für umfallende Reissäcke!
Alles auf der GPU. Ersetze GLSL mit HLSL, CUDA oder Cg, dann findest du vllt. noch mehr.
Sowas geht dann auch mit PureBasic .
Angenommen es gäbe einen Algorithmus mit imaginärer Laufzeit O(i * n), dann gilt O((i * n)^2) = O(-1 * n^2) d.h. wenn man diesen Algorithmus verschachtelt ist er fertig, bevor er angefangen hat.
alles nix gegen mlt renderer. schaut zwar cool aus mit glsl, kann blender auch schon von haus aus und das in echtzeit...
man könnte sogar einen mlt renderer in purebasic coden, aber darum gehts hier nicht. das is weintrauben mit äpfel vergleichen. beides obst, aber doch ist das was unterschiedliches.
gekkonier hat geschrieben:alles nix gegen mlt renderer. schaut zwar cool aus mit glsl, kann blender auch schon von haus aus und das in echtzeit...
man könnte sogar einen mlt renderer in purebasic coden, aber darum gehts hier nicht. das is weintrauben mit äpfel vergleichen. beides obst, aber doch ist das was unterschiedliches.
Nein ist es nicht. Es kommt halt drauf an mit was du den Raytracer fütterst. Btw.: Blender nutzt GLSL doch nicht als Raytracer sondern als Echtzeit-Grafikrenderer (Für die Gameengine). GLSL Raytracer verfolgen dasselbe Prinzip wie nVidia Gelato.
Angenommen es gäbe einen Algorithmus mit imaginärer Laufzeit O(i * n), dann gilt O((i * n)^2) = O(-1 * n^2) d.h. wenn man diesen Algorithmus verschachtelt ist er fertig, bevor er angefangen hat.
ich kürz das mal ab: du hast in allen punkten recht, okay?
wenn du einen mlt renderer hast, der A) mit GPU's rendert, B) gratis wie luxrenderer, indigo oder kerkythea is und dazu C) netzwerkfähig ist schick mir nen link.
Ich hab nicht gesagt, dass es B oder C erfüllen muss. Ich hab nichtmal gesagt, dass es veröffentlicht sein muss. Ich hab nur gesagt, dass es sowas gibt (Es gibt auch diverse Universitätsprojekte, die sich damit beschäftigen, aber nie veröffentlicht werden).
Angenommen es gäbe einen Algorithmus mit imaginärer Laufzeit O(i * n), dann gilt O((i * n)^2) = O(-1 * n^2) d.h. wenn man diesen Algorithmus verschachtelt ist er fertig, bevor er angefangen hat.