News Gamer gegen Corona: Folding@home hilft bei der Bekämpfung des Virus und alle können mitmachen

Also bei mir war heute kein guter Falter-Tag. Stellenweise waren ALLE Clients idle und ich konnte mich heute auch Null kümmern um den Murks.

ansonsten würde ich aber jeden aus den Top10 der Top500-Rechner diesem Stückwerk vorziehen. Die reine theoretische Rechenpower wird gegenüber so einem Biest an allen Ecken und Enden ausgebremst
 
Can it run Crysis? No! :p
 
Och, wer weiß. Da kann man mit einer ganzen CPU einen Shader simulieren. :D
 
It runs in a crisis, so...
 
Kriege leider dort im Forum auch kein Antwort/Hilfe zu dem Fakt, dass ich keine URL eintragen kann. In Anbetracht der Größe unseres Teams wäre es halt schon ganz cool, wenn das Forum verlinkt wäre.

Grüße!
 
Crysis, läuft heute auf nem Taschenrechen.
Einziger Vorteil, es mag noch CF/SLI.
Bin schon am überlegen, ne Pause zu machen. Hab mehr IDE, als Jobs.
Dafür die ganzen Rechner laufen zu lassen, macht eigentlich keinen Sinn.
 
Jo, mal schauen ob's morgen besser ist.
 
Ich bekomm leider auch nix mehr richtig zu tun....
Vorerst werde ich morgen früh den Dauerbetrieb von allen Stromhungrigen Rechnern einstellen.
Die kleine alte halb defekte Zotac-Platine mit dem i5 ist eigentlich die einzige die immer zu hat :rolleyes:
Leider das leistungsschwächste System :rolleyes::rolleyes:
 
Hab das mal den ganzen Abned beobachtet bei mir. PC1 mit Ryzen und 5700XT. GPU rennt und CPU pennt. Bei CPU kommt gar nix rein.
PC2 mit i7 4790k und Vega 56. GPU und CPU rennt.
Schaut bei mir so aus, das F&H kein Ryzen mag.
 
ansonsten würde ich aber jeden aus den Top10 der Top500-Rechner diesem Stückwerk vorziehen. Die reine theoretische Rechenpower wird gegenüber so einem Biest an allen Ecken und Enden ausgebremst
Im Prinzip schon. Aber so muss der Virologe weder die Hardware kaufen und verwalten noch den Strom bezahlen. Und wenn es viele "kleinere" WUs sind, die man schön verteilen kann, dann dürfte es einigermaßen brauchbar sein. Für größere zusammenhängende Projekte ist ein nominell weitaus schwächerer Supercomputer sicher vorzuziehen.

Aber für solange man keinen Supercomputer hat, ist F@H immerhin quasi kostenlose Rechenleistung und damit definitv besser als nichts. Und geschenktem Gaul haut man nicht aufs Maul.

@WusL: meine Vega 56 und mein Haswell-i5 sind seit irgendwann gestern fast durchgehend im Idle.
 
Dann ist das wohl total Random alles. Kommt wahrscheinich nur drauf an wie viele WU´s die bereitstellen können und wie die Server die anfragen Verwalten können.

Igors Lab unter Top 865
Gamster Top 500
PCGH Top 10
Computerbase Top 69

Da ist die deutsche Community ja ganz schön vertreten.
 
Hab vor 20 Minuten eine WU von 13850 bekommen. Aber der Rest hat nix zu tun. Na wenigstens steigt da der Stromzaehler nicht so schnell. :D
 
Oouuhhh man. Da freue ich mich gerade, die erste WU für die Vega und dann.... bad work unit, faulty project 😩
Naja, die CPU hat letzte Nacht noch einen Minijob bekommen (ca. 2,5Std) und seit dem nix. Wenn nicht BOINC noch laufen würde mit Rosetta, würde ich den großen jetzt auch erst mal aus machen.
 
Meine Ausbeute war gestern auch recht mau. Ich setze erst einmal nur noch einen Rechner ein.
 
Bei mir war es gut bis Mitte der Nacht, dann hat es nachgelassen.
 
Gerade gibt es wieder zu tun. Wirkt wieder n bissel, als wenn nach dem Wochenende neue WUs generiert wurden. :D

Aber meine Linuxkiste macht gerade mucken:
...
Mar 24 05:57:15 linux kernel: pcieport 0000:02:01.0: Refused to change power state, currently in D3
Mar 24 05:57:46 linux kernel: xhci_hcd 0000:01:00.0: xHCI host controller not responding, assume dead
Mar 24 05:57:46 linux kernel: xhci_hcd 0000:01:00.0: HC died; cleaning up
Mar 24 05:57:46 linux kernel: usb 1-7: USB disconnect, device number 2
Mar 24 05:57:46 linux kernel: usb 1-8: USB disconnect, device number 3
Mar 24 05:57:46 linux kernel: usb 1-10: USB disconnect, device number 5
Mar 24 06:00:18 linux kernel: ------------[ cut here ]------------
Mar 24 06:00:18 linux kernel: WARNING: CPU: 0 PID: 11524 at net/sched/sch_generic.c:356 dev_watchdog+0x248/0x260
Mar 24 06:00:18 linux kernel: NETDEV WATCHDOG: enp3s0 (r8169): transmit queue 0 timed out
Mar 24 06:00:18 linux kernel: Modules linked in: ip6t_rpfilter ip6t_REJECT nf_reject_ipv6 ipt_REJECT nf_reject_ipv4 xt_conntrack ebtable_nat ebtable_broute bridge stp llc ip6table_nat nf_conntrack_ipv6 nf_defrag_ipv6 nf_nat_ipv6 ip6table_mangle ip6table_security ip6table_raw iptable_nat nf_conntrack_ipv4 nf_defrag_ipv4 nf_nat_ipv4 nf_nat iptable_mangle iptable_security iptable_raw nf_conntrack ip_set nfnetlink ebtable_filter ebtables ip6table_filter ip6_tables iptable_filter sd_mod crc_t10dif crct10dif_generic sg eeepc_wmi asus_wmi sparse_keymap rfkill vfat fat snd_hda_codec_realtek snd_hda_codec_generic edac_mce_amd kvm_amd snd_hda_codec_hdmi kvm snd_hda_intel snd_hda_codec snd_hda_core irqbypass crc32_pclmul snd_hwdep snd_seq ghash_clmulni_intel snd_seq_device snd_pcm aesni_intel lrw gf128mul glue_helper ablk_helper
Mar 24 06:00:18 linux kernel: cryptd snd_timer pcspkr snd i2c_piix4 k10temp soundcore video pinctrl_amd i2c_designware_platform gpio_amdpt i2c_designware_core pcc_cpufreq wmi acpi_cpufreq ip_tables xfs libcrc32c uas usb_storage chash i2c_algo_bit amd_iommu_v2 gpu_sched drm_kms_helper syscopyarea sysfillrect sysimgblt fb_sys_fops ttm drm ahci libahci nvme crct10dif_pclmul crct10dif_common libata crc32c_intel drm_panel_orientation_quirks sdhci_acpi nvme_core iosf_mbi serio_raw r8169 sdhci mmc_core dm_mirror dm_region_hash dm_log dm_mod
Mar 24 06:00:18 linux kernel: CPU: 0 PID: 11524 Comm: FahCore_a7 Kdump: loaded Not tainted 3.10.0-1062.18.1.el7.x86_64 #1
Mar 24 06:00:18 linux kernel: Hardware name: System manufacturer System Product Name/PRIME B450-PLUS, BIOS 2008 12/06/2019
Mar 24 06:00:18 linux kernel: Call Trace:
Mar 24 06:00:18 linux kernel: <IRQ> [<ffffffffa557b416>] dump_stack+0x19/0x1b
Mar 24 06:00:18 linux kernel: [<ffffffffa4e9bab8>] __warn+0xd8/0x100
Mar 24 06:00:18 linux kernel: [<ffffffffa4e9bb3f>] warn_slowpath_fmt+0x5f/0x80
Mar 24 06:00:18 linux kernel: [<ffffffffa547cf98>] dev_watchdog+0x248/0x260
Mar 24 06:00:18 linux kernel: [<ffffffffa547cd50>] ? dev_deactivate_queue.constprop.27+0x60/0x60
Mar 24 06:00:18 linux kernel: [<ffffffffa4eac488>] call_timer_fn+0x38/0x110
Mar 24 06:00:18 linux kernel: [<ffffffffa547cd50>] ? dev_deactivate_queue.constprop.27+0x60/0x60
Mar 24 06:00:18 linux kernel: [<ffffffffa4eae8ed>] run_timer_softirq+0x24d/0x300
Mar 24 06:00:18 linux kernel: [<ffffffffa4ea5435>] __do_softirq+0xf5/0x280
Mar 24 06:00:18 linux kernel: [<ffffffffa559142c>] call_softirq+0x1c/0x30
Mar 24 06:00:18 linux kernel: [<ffffffffa4e2f715>] do_softirq+0x65/0xa0
Mar 24 06:00:18 linux kernel: [<ffffffffa4ea57b5>] irq_exit+0x105/0x110
Mar 24 06:00:18 linux kernel: [<ffffffffa55929d8>] smp_apic_timer_interrupt+0x48/0x60
Mar 24 06:00:18 linux kernel: [<ffffffffa558eefa>] apic_timer_interrupt+0x16a/0x170
Mar 24 06:00:18 linux kernel: <EOI>
Mar 24 06:00:18 linux kernel: ---[ end trace f268f2e9751bdd82 ]---
Mar 24 06:00:18 linux kernel: r8169 0000:03:00.0 enp3s0: rtl_chipcmd_cond == 1 (loop: 100, delay: 100).
...

Nen BIOS Update hatte nicht gereicht. Versuche jetzt erstmal nen Distributionsupdate, ansonsten mal sehe, ob es irgendwelche Optionen gibt, das Powermgmt zu reduzieren. :/
 
Mein PC hatte über Nacht auch nichts neues zu tun. Wenn ich bis heute Abend keine neuen WUs hatte, dann wird er die nächste Nacht über heruntergefahren.
 
Kriege leider dort im Forum auch kein Antwort/Hilfe zu dem Fakt, dass ich keine URL eintragen kann. In Anbetracht der Größe unseres Teams wäre es halt schon ganz cool, wenn das Forum verlinkt wäre.
"How to Modify an Existing Team
To modify a existing team, enter the Team number and any of Founder, Email, URL, or Logo URL plus the team Password, twice. Then click the Modify button.

Ich nehme an, dass das nicht geht? Wahrscheinlich braucht das zur Zeit einfach nur ewig, bis es erscheint.
 
Gestern über ein großes Paket gefreut, heute morgen ist es noch immer nicht hochgeladen und hat sich mittlerweile im Wert halbiert...
So macht Punktejagd doch keinen Spaß....
 
Oben Unten