Seite 1 von 1

...@home

Verfasst: Di 30. Dez 2008, 16:32
von Scooby Doo
Es gibt ja viele Projekte, die sich die heimische Rechenleistung für Berechnungen aller Art zu Nutze machen. Das erste und bekannteste war wohl SETI@home (Außerirdische suchen).

Mit dem letzten ATI-Treiber hat sich ein Link auf meinem Desktop platziert, und zwar zu einem Projekt, bei dem die Software die Leistung der GPUs (Grafikkarten-Prozessoren) nutzt, um Protein-Verhalten zu berechnen und zu analysieren. Das soll sogar um ein vielfaches Schneller sein als mit heutigen Dual- oder Quad-Core-Prozessoren.
Das Ganze nennt sich Folding@home und ist ein Projekt der Stanford Universität. Details findet Ihr auf der Homepage: http://folding.stanford.edu/German/Main
Spoiler: anzeigen
folding_display.jpg
folding_display.jpg (226.66 KiB) 1948 mal betrachtet
Wenn Ihr dies auch unterstützenswert findet, und Euer Rechner vielleicht sowieso den ganzen Tag an ist, ladet Euch den Client runter und richtet Euch neben einem Nickname die -UC- Gruppe ein.

ATI-GPU-Client für XP/Vista: http://www.stanford.edu/group/pandegrou ... ay-623.msi
Nvidia-GPU-Client für XP/Vista: http://www.stanford.edu/group/pandegrou ... ay-623.msi
Weitere Clients (für Multi-Prozessoren oder für Konsole): http://folding.stanford.edu/English/DownloadWinOther
Standard-Prozessor-Clients: http://folding.stanford.edu/English/Download (Hier gibt es auch Clients für Linux, MacOSX und für die PS3 :o )

Dann einfach beim ersten Start oder später unter "Configure" neben dem "User name" unter "Team Number" die 157157 eintragen.
Spoiler: anzeigen
folding_config.jpg
folding_config.jpg (74.1 KiB) 1948 mal betrachtet
Statistiken der -UC- Gruppe (wenn sie nicht gerade neu berechnet werden): http://fah-web.stanford.edu/cgi-bin/mai ... num=157157

Re: ...@home

Verfasst: Do 1. Jan 2009, 02:33
von iob
Mhm, das erhöht aber bestimmt den Stromverbrauch um 100 Watt oder?

Re: ...@home

Verfasst: Do 1. Jan 2009, 14:10
von Bonzai
Kennst du den Wayne?


Ich glaube nicht dass die Grafikkarte von Arbeiten unter Windows zum Hardcore Zocken 100 Watt Unterschied macht.

Re: ...@home

Verfasst: Fr 2. Jan 2009, 01:12
von Scooby Doo
Doch, leider ja ... meine Karte (HD4870) verbraucht z.B. ziemlich genau 100 Watt mehr bei der 3D- gegenüber der 2D-/Desktop-Nutzung.
Bei der GTX280 sind es sogar fast 200 Watt ...

folding@home lastet die GPU auch schön zu 100% aus.

Dazu passend gibt's einen relativ aktuellen Beitrag bei Tom's Hardware:
http://www.tomshardware.com/de/Grafikka ... 40205.html

Re: ...@home

Verfasst: Fr 2. Jan 2009, 21:21
von Bonzai
lol,

und da regen sich die Leute auf wenn eine Konsole 150 Watt braucht? :hahaha:

Re: ...@home

Verfasst: Fr 2. Jan 2009, 22:59
von Tong
Nö, über Leute, die im Urlaub in ferne Länder fliegen, sagen wir mal UGANDA :D
Klimakill0r ;)

Ich fand diese Zahlenspiele um die PS3 echt lächerlich. "Wenn man alle PS3 ausschaltet, dann spart man sich X Atomkraftwerke!"
Nicht in den Irak einzufallen hätte .... BLAH

Wenn ich mich richtig erinnere, gings ja wohl um den nicht aktiven Stromsparmodus, was ich auch irgendwie sinnlos finde, entweder ich spiele oder ich spiele nicht, mein Fernseher ... äh ok scheissbeispiel, der läuft immer :D

Re: ...@home

Verfasst: Sa 3. Jan 2009, 10:58
von iob
Also 100 watt mehr sind bei 24 stunden die mein pc läuft schon ne ecke. Was kostet der kilowatt? 30 cent? Das sind dann im monat schon 20 Euro für so nen forschungsprojekt.... :).

Ist auch so, das wenn moderne pcs nix zu tun haben sie weniger strom verbrauchen...

Also wenn man nicht zu viel geld hat (240 euro im jahr haben oder nicht haben...) würd ich sowas halt nicht aufspielen :).
Ich glaube nicht dass die Grafikkarte von Arbeiten unter Windows zum Hardcore Zocken 100 Watt Unterschied macht.
Ich habe leider keinen genauen plan, glaube aber schon das es 100-200 watt unterschied sind zwischen 2d und 3d - deshalb hab ich die 3d effekte unter vista auch schnell ausgeschaltet.